École de Musique Partouche - Produits, offres, nouvelles

Actualités

COMPRENDRE LA GUITARE ACOUSTIQUE

18/03/2016

Comprendre la guitare acoustique
PAR
Antoine Chaigne 
Grégoire Derveaux 
Patrick Joly 
NIVEAU DE LECTURE
Intermédiaire   
PUBLIÉ LE
15/11/2006
 
Pour faire évoluer la guitare, des simulations numériques dévoilent le champ sonore à l'intérieur et autour de l’instrument. Comment fabriquer une bonne guitare ?

Les éléments d'une guitare classique
Source : Pierre-Étienne Nataf / Wikipédia
Une corde vibre selon des harmonies naturelles, mais le son qu’elle émet est à peine audible. Pourquoi ? Car le diamètre de la corde est trop petit pour rayonner dans l’air. Le rôle de la guitare est d’amplifier ce son à l’aide d’un mécanisme acoustique. Les cordes de la guitare sont fixées d’un côté au manche et de l’autre au chevalet, lui-même collé sur la table d’harmonie, fine plaque de bois. Les vibrations de la corde sont transmises à la table d’harmonie, laquelle rayonne efficacement dans l’air grâce à sa large surface. Mais le son émis de part et d’autre de la table s’annule pour les grandes longueurs d’onde, à moins qu’on ne l’enferme dans une cavité. Pour renforcer la puissance dans les graves, on perce dans la table d’harmonie un trou, appelé rose (ou rosace), ce qui crée de nombreuses résonances à l’intérieur de la caisse, dont la plus grave est la fréquence de résonance de Helmholtz. C’est cette fréquence que l’on entend quand on souffle dans une bouteille vide. Ce même principe est utilisé pour construire les enceintes bass reflex. Au XVIe siècle, la vihuela espagnole, ancêtre de la guitare classique, possédait déjà ces caractéristiques.

Lorsqu’on pince une corde de guitare, l’essentiel de l’énergie produite se dissipe au sein de la corde, et seule une faible partie est transmise jusqu’à nos oreilles. Pour obtenir une plus grande puissance sonore, il suffit d'agrandir le corps de la guitare et d'affiner la table d’harmonie, ce qui favorise sa mobilité. La masse des cordes augmente alors, induisant ainsi l'augmentation de leur tension, afin de conserver la même hauteur de note. Ces transformations fragilisant l’instrument, un système de barrage réalisé à l’aide de baguettes de bois dur collées sous la table de l’instrument a permis de garantir sa solidité. C'est au luthier espagnol Antonio de Torres (1817-1892) que l'on doit cette contribution majeure.

Les luthiers cherchent en permanence à faire évoluer la guitare. Pour bien faire, une bonne connaissance du fonctionnement intime de l’instrument est nécessaire. Celle-ci repose principalement sur leur expérience personnelle et la transmission des savoir-faire techniques. La recherche scientifique contribue quant à elle à une meilleure compréhension de la physique de l’instrument.

Un modèle physique de guitare
Les mouvements de la table d'harmonie d'une guitare sont décomposés sur ses modes élémentaires de vibration. Il en existe une infinité. Ci-dessus les cinq premiers modes calculés par notre modèle. La couleur verte indique le niveau de la surface médiane, le rouge une surélévation (bosse) et le bleu un abaissement (creux).


Évolution du champ sonore dans l'air environnant la guitare juste après que le doigt a lâché la corde. On observe ici l'écart à la pression ambiante dans trois des plans de coupe passant par le centre de la guitare. La couleur bleue désigne une dépression de l'ordre de - 6 pascals, tandis que la rouge désigne une surpression de + 6 pascals. En tirant sur le chevalet, la corde crée une dépression locale à l'intérieur de la caisse et une surpression au-dessus de la table. Ces fluctuations de pression rayonnent vers l'extérieur et se déplacent à l'intérieur de la caisse en se réfléchissant sur les éclisses et le fond en faisant vibrer la table et en s'échappant partiellement par la rose.
Images : © INRIA / Projet ONDES et Arghyro Paouri
Nous avons élaboré un modèle pour décrire les phénomènes vibro-acoustiques mis en jeu lorsqu’on pince une corde de guitare. La corde est modélisée par une équation de corde vibrante, excitée par le pincer. Le mouvement de la table d’harmonie est décrit par l’équation de plaque mince dite de Kirchhoff-Love pour un matériau orthotrope - c’est-à-dire qui possède des veines comme le bois - et hétérogène (pour prendre en compte le barrage). Les pertes au sein de la corde et de la table sont prises en compte à l’aide de termes d’amortissement, de sorte que les hautes fréquences s’atténuent plus vite que les basses fréquences. Ce phénomène caractérise entre autres le timbre de l’instrument. Quant au champ sonore à l’intérieur et à l’extérieur de la cavité, il est décrit par les équations classiques de propagation du son en trois dimensions. Il reste à écrire de quelle manière la caisse interagit avec la corde et l’air. On suppose que la corde est en contact permanent avec la table au chevalet et qu’elle exerce sur cette dernière une force proportionnelle à sa tension. En outre, la table subit les efforts de pression de l’air environnant et transmet sa propre vitesse aux particules d’air immédiatement voisines. Le reste du corps de la guitare (fond, bord, manche) est supposé rigide, l’air étant immobile à la surface.

La résolution numérique
Déterminer la solution analytique de ce jeu complexe d’équations à l’aide d’un crayon et d’une feuille de papier, nous ne pouvons l'envisager ! Il nous faut mettre en œuvre une méthode numérique pour en calculer une approximation. Les équations décrivent les vibrations à chaque instant et en chaque point de l’instrument, donc en une infinité de points : le problème est continu. Un ordinateur ne pouvant traiter qu’un nombre fini de données, nous cherchons une approximation de la solution basée sur un nombre fini de valeurs : c’est la discrétisation du système continu. Pour approcher l’équation de corde, nous la découpons en un nombre fini de segments. La solution est alors calculée en chaque segment à des instants successifs séparés par une durée très courte appelée pas de temps (ici 20 microsecondes). De même, l’air est coupé en petits cubes. Comme pour la timbale (voir aussi Le son des timbales par A. Chaigne, P. Joly et L. Rhaouti), on limite le volume de calculs en supposant les parois parfaitement absorbantes. La guitare a en quelque sorte disparu de ce maillage en cubes : on appelle cette méthode les domaines fictifs. Pour calculer l’interaction entre l’air et la guitare, on introduit un maillage de la surface de la caisse, constitué de triangles aux sommets desquels la différence entre les pressions interne et externe est calculée. Les mouvements de la table sont quant à eux décomposés sur ses cinquante premiers modes de vibration (figure du haut). Cela nous ramène à cinquante équations dépendant du temps, solvables « à la main ».

Le calcul le plus limitant est celui qui concerne l’air : il y a cent points sur la corde, 3 000 points pour calculer les modes de table et un million de points dans l’air. Calculer six secondes de son (300 000 pas de temps) nécessite deux heures de calcul sur un bon PC. Les simulations numériques obtenues à l’aide de ce modèle révèlent les vibrations de l’instrument au cours du temps lorsqu’on pince une de ses cordes et la pression dans l’air environnant la guitare (figure du bas). Suffisamment proche de la réalité, le modèle proposé simule un grand nombre de caractéristiques des guitares réelles, comme la puissance de l’instrument dans les différentes directions à une fréquence donnée (sa directivité), une donnée qui intéresse les preneurs de son. Le modèle informe en outre sur des phénomènes difficilement accessibles, tels le transfert d’énergie entre les diverses parties de l’instrument.

Ce modèle procure ainsi une aide à la conception et à l’innovation. Il permet en effet de tester l’influence d’une modification structurelle de l’instrument, par exemple pour l’adapter à la morphologie des enfants, mais aussi des matériaux nouveaux. Cette seconde problématique deviendra d'ailleurs une question cruciale dans les années à venir, en raison de la disparition de certaines essences de bois exotiques traditionnellement utilisées en lutherie, quelques-unes sont déjà interdites d’exploitation.

Si vous avez envie d'en savoir plus sur les simulations de la guitare acoustique.

Une première version de cet article est parue dans le dossier n°52 La modélisation informatique, exploration du réel de la revue Pour la Science, numéro de juillet/septembre 2006.

 

DOCUMENT         inrestices.info          LIEN

DES ROBOTS HUMANOÏDES DANS LES USINES ...

22/02/2016

Paris, 12 février 2016
Des robots humanoïdes dans les usines aéronautiques de demain

Développer des technologies de robotique humanoïde pour effectuer des tâches difficiles dans les usines aéronautiques, c'est le programme de recherche commun, d'une durée de quatre ans, du Joint Robotics Laboratory (CNRS/AIST)1 et d'Airbus Group. Il sera officiellement lancé le 12 février 2016 à l'ambassade de France à Tokyo2. L'introduction d'humanoïdes sur les lignes d'assemblage aéronautiques permettra de décharger les opérateurs humains des tâches les plus laborieuses ou dangereuses. Ils pourront ainsi se concentrer sur des tâches à plus forte valeur ajoutée. La principale difficulté pour ces robots sera de travailler dans un environnement exigu : comment réaliser certains mouvements sans entrer en collision avec les nombreux objets alentours ? C'est la première question à laquelle devront répondre les chercheurs, en développant de nouveaux algorithmes de planification et contrôle des mouvements précis.
Du fait de la taille des appareils aéronautiques (par exemple des avions de ligne) et du très grand nombre de tâches à effectuer sur peu d'unités, l'utilisation de robots spécialisés à base fixe, déjà utilisés dans l'industrie automobile, est impossible dans l'industrie aéronautique. D'autres difficultés s'ajoutent : même si des robots constitués d'une base mobile et d'un bras manipulateur peuvent être utilisés par l'industrie (comme chez Airbus Group par exemple), ceux-ci sont limités dans leurs déplacements. Ils n'ont, en effet, pas la possibilité de monter des escaliers ou des échelles, de passer des obstacles au sol, etc. De son côté, le Joint Robotics Laboratory (JRL, CNRS/AIST) développe, à partir des modèles de robots HRP-2 et HRP-43, des nouvelles technologies de locomotion dites multi-contacts : en s'aidant de tout son corps pour prendre contact avec son environnement, et non seulement avec ses pieds, ce type de robot peut monter des échelles et entrer dans des endroits exigus. La possibilité d'avoir des contacts multiples permet aussi d'accroître la stabilité du robot et la force qu'il peut appliquer lorsqu'il effectue une tâche. De plus, la forme anthropomorphique de ces robots offre une polyvalence utile pour effectuer un grand nombre de tâches différentes dans des environnements variés.

La collaboration entre les chercheurs du JRL et Airbus Group a donc pour but de permettre aux robots humanoïdes d'effectuer des tâches de manipulation dans un environnement contraint et limité, les lignes d'assemblage, où ils devront faire un usage coordonné de leur corps pour mener à bien leur mission. Les espaces exigus requièrent en effet des postures particulières. Le calcul de telles postures s'avérant mathématiquement complexe, les chercheurs devront tout d'abord développer de nouveaux algorithmes, bien plus puissants que ceux existants actuellement, tout en gardant ces calculs suffisamment rapides pour que les mouvements des robots restent efficaces. Les tâches typiques que les robots auront à effectuer seront, par exemple, de serrer un écrou, de nettoyer une zone de ses poussières métalliques ou d'insérer des pièces dans la structure de l'appareil. Ils pourront également vérifier le bon fonctionnement des systèmes une fois la fabrication terminée.

Ces algorithmes seront testés sur un ensemble de scénarios tirés des besoins des différentes branches d'Airbus Group (Aviation Civile, Hélicoptères, et Spatial), et dont le réalisme ira croissant au fil des années. Du côté de la recherche en robotique, en plus de l'apport des nouveaux algorithmes, cette collaboration mettra peut-être en lumière des insuffisances des robots actuels (design, précision ou puissance, par exemple). Elle pourrait également permettre de spécifier le cahier des charges de la première génération de robots humanoïdes dédiés à la manufacture de grandes structures, d'ici 10 à 15 ans.

DOCUMENT cnrs LIEN

ASTROPHYSIQUE

29/01/2016

Paris, 30 octobre 2014
Voyage au coeur d'un système solaire triple en formation

Une équipe internationale d'astronomes, dont des chercheurs du LAB (CNRS/Université de Bordeaux), de l'IPAG (CNRS/Université Joseph Fourier Grenoble 1) et de l'IRAM (CNRS/MPG/IGN), a mené l'étude la plus précise à ce jour du cocon de gaz et de poussières du système GG Tau A. En combinant des observations complémentaires aux longueurs d'onde submillimétriques (ALMA et IRAM) et infrarouges (VLTI/ESO), les chercheurs ont pu mettre en évidence la dynamique complexe au sein de GG Tau. Ils ont ainsi détecté pour la première fois des mouvements de matière démontrant que des exoplanètes peuvent se former non seulement autour d'un des membres de ce trio d'étoiles jeunes, mais aussi à très grande distance dans le disque entourant ces trois soleils. Ce travail observationnel, publié le 30 octobre dans la revue Nature, révèle une histoire plus complexe qu'on ne l'imaginait.
Si les découvertes observationnelles récentes ont démontré l'existence de nombreuses planètes autour des étoiles doubles, leur formation se heurtait au problème des instabilités gravitationnelles engendrées par la nature binaire de ces astres. Les observations d'étoiles jeunes binaires sont encore trop rares pour fournir une image détaillée de ces processus. Jusqu'à très récemment, GG Tau A, située à près de 450 années-lumière de la Terre dans la constellation du Taureau, était connue comme une étoile binaire avec deux composantes Aa et Ab. Mais des mesures infrarouges récentes réalisées avec les instruments du VLT et du VLTI (ESO) ont révélé que GG Tau A est en fait un système stellaire triple1 : GG Tau Ab est elle-même une étoile binaire. L'étoile centrale Aa est suffisamment éloignée du couple Ab pour être entourée d'un disque circumstellaire, observé dès 2011 avec l'interféromètre de l'IRAM.

Autour de ce système stellaire triple, les chercheurs ont déjà mis en évidence un disque de gaz et de poussières en rotation, évidé en son centre par les effets de marée gravitationnels. En tournant les unes autour des autres, les trois étoiles créent en effet une zone gravitationnellement instable appelée cavité, où la matière ne peut que transiter avant de tomber sur les étoiles centrales. Plus loin, là où réside l'anneau externe de matière, le champ gravitationnel n'est plus perturbé et la matière en rotation peut s'organiser en une structure stable. L'existence d'une cavité centrale autour de GG Tau A, connue dès les années 1990 grâce aux observations de l'interféromètre de l'IRAM, confirmait en partie ces prédictions théoriques. Dans les années 2000, on a détecté la présence de gaz dans cette cavité, mais la dynamique précise de ce gaz, pierre essentielle à la compréhension des mécanismes d'accrétion donnant naissance aux planètes, restait largement méconnue.

Dans cette nouvelle étude, des observations du monoxyde de carbone (CO sous forme gazeuse) et de l'émission des grains de poussière autour de GG Tau A ont été obtenues de manière complémentaire avec les interféromètres ALMA (Chili) et IRAM (Alpes françaises). Elles ont permis de lever une partie du voile sur la répartition de la matière et sur la dynamique à l'intérieur de la cavité, avec une précision encore jamais atteinte dans ce domaine. Les images montrent en effet un filament de gaz provenant de l'anneau externe tombant vers les étoiles centrales. La quantité de gaz ainsi transportée se révèle suffisante pour alimenter le disque interne autour de GG Tau Aa. Les mouvements de gaz observés confirment ainsi les prédictions des simulations numériques antérieures. Ils démontrent que la matière provenant de l'anneau externe est capable de nourrir le disque interne autour de GG Tau Aa pendant assez longtemps pour éventuellement permettre la formation des exoplanètes.

Si ce résultat était attendu, le suivant l'était moins : les deux cartes de l'émission du CO révèlent une surbrillance remarquable sur le bord externe de l'anneau autour du système stellaire triple. Son étude détaillée montre qu'elle est deux fois plus chaude que le milieu environnant et qu'il pourrait s'agir de la signature d'une jeune exoplanète géante en cours de formation. Cette planète serait en train de creuser un fin sillon dans le disque externe, mais la détection d'une telle structure reste pour l'heure hors de portée des instruments. La mise en service prochainement des antennes NOEMA2 de l'IRAM sur le plateau de Bure sera, sans nul doute, un atout majeur pour en savoir plus sur GG Tau, un système de soleils jeunes qui n'a pas fini de livrer ses mystères.

  DOCUMENT         cnrs        LIEN   

PIERRE BOULEZ

24/01/2016

 

Boulez Pierre

1925-2016

 

Pierre Boulez

Né à Montbrison, 26 mars 1925, mort à Baden-Baden, 5 janvier 2016.

Il reçoit des cours de piano à l'âge de sept ans. Après des études secondaires dans une institution religieuse, il prépare à Lyon l'École polytechnique. Il s'installe en 1942 à Paris. En 1944 il est admis au Conservatoire, dans la classe d'harmonie de Messiaen. Il obtient un 1er prix d'harmonie en 1945. Il étudie le contrepoint avec Andrée Vaurabourg, André Leibowitz l'initie à la musique sérielle (dodécaphonique).

De 1946 à 1956,  il est directeur de la musique de scène de la Compagnie Renaud-Barrault. C'est dans les activités liées à cette fonction qu'il aborde la direction d'orchestre.

En 1953, il dirige les « Concerts du Petit Marigny » qui deviennent en 1954 « Le Domaine Musical » spécialisé dans la musique contemporaine. Il en assure la direction jusqu'en 1967.

De 1955 à 1967, il enseigne l'analyse musicale et la direction d'orchestre au festival de Darmstadt.

En 1958, il s'installe à se fixe à Baden-Baden à l'invitation du Südwestfunk.

De 1960 à 1966 il enseigne l'analyse musicale et la direction d'orchestre à l'Académie de musique de Bâle

En 1962-1963, il donne des cours à Harvard et rédige Penser la musique aujourd'hui. 

En 1966 il est invité par Wieland Wagner à diriger Parsifal à Bayreuth, puis Tristan et Isolde au Japon.

En 1967, suite à un désaccord avec le ministre de la culture, André Malraux, sur la gestion étatique de l'art et de la culture, il cesse ses activités en France. De 1967 à 1972, il est principal chef invité de l'Orchestre de Cleveland ; de 1971 à 1975 chef permanent de l'Orchestre symphonique de la BBC ; de 1971 à 1977 (après avoir été pour le première fois à son pupitre en 1969), il dirige l'Orchestre philharmonique de New York, en succession à Leonard Bernstein.

En 1972, il reprend ses activités en France quand le gouvernement décide de joindre un centre de recherche musical au projet du Centre d'art contemporain de Beaubourg. Le Président Georges Pompidou le charge du projet et lui confie la direction. l'Institut de recherche et coordination acoustique/musique (Ircam) ouvre ses portes à l'automne 1977. Pierre Boulez assure sa direction jusqu'en 1992.

En 1975, dès sa création sous l'autorité de Michel Guy, secrétaire d'Etat aux Affaires culturelles, il préside l'Ensemble Intercontemporain (EIC).

En 1976, il est nommé professeur au Collège de France et pour le centenaire du « Ring », il dirige la Tétralogie de Wagner, dans une mise en scène de Patrice Chéreau (ce programme est donné 5 années de suite).

En 1979, il dirige la première mondiale de la version intégrale de Lulu d'Alban Berg, à l'Opéra de Paris (avec Patrice Chéreau).

Dans les années 1980, il participe aux projets de l'Opéra de la Bastille et de la Cité de la musique à la Villette à Paris, et marque souvent son désaccord sur les choix techniques imposés par les décideurs politiques.

En 1988, une suite de six émissions télévisées lui est consacrée : Boulez xxe siècle. Il est le compositeur invité du centre Acanthes, à Villeneuve-les-Avignon. Il y donne des cours de direction d'orchestre et dirige Répons à la carrière Boulbon dans le cadre du festival d'Avignon.

A partir de 1992, dégagé de ses obligations à la direction de l'Ircam, il intensifie sa carrière de dirigeant. Il signe un contrat d'exclusivité avec Deutsche Grammophon et le festival de Salzbourg lui consacre une programmation exhaustive.

En 1995, son 70e anniversaire est marqué par un cycle de concerts pour l'inauguration de la Cité de la musique à la Villette, une tournée mondiale avec le London Symphony Orchestra (Londres, Paris, New York, Tokyo), des concerts au Japon avec quatre orchestres différents et la production de Moïse et Aaron à l'Opéra d'Amsterdam, dans une mise en scène signée Peter Stein.

 

DOCUMENT            musicologie.org       LIEN

CRISE CARDIAQUE

24/01/2016

CRISE  CARDIAQUE             LIEN

LES PARTICULES ÉLÉMENTAIRES

23/01/2016

Les particules élémentaires


- dans mensuel n°306 daté février 1998 à la page 92 (3073 mots) |
La quête de l'élémentaire occupe philosophes et hommes de science depuis plus de... vingt-cinq siècles ! Leucippe de Milet est le premier, en Occident, à définir l'atome comme la particule la plus élémentaire. Insécables car très petits, durs et incompressibles, les atomes de Leucippe, puis ceux de Démocrite, diffèrent par leur forme, leur arrangement et sont animés d'un mouvement continu, éternel et désordonné. Ils composent toutes choses, y compris l'âme. Epicure leur rajoutera une autre propriété, une sorte de pesanteur. Leur mouvement est, selon lui, régulier et dirigé vers le bas mais peut se trouver légèrement dévié. Cette théorie atomiste sera vivement combattue au Moyen Age par la tradition aristotélicienne qui préfère une vision du monde en quatre qualités primordiales le chaud, le froid, l'humide et le sec et une substance particulière omniprésente, l' aither . En Occident, la théorie atomiste gagne du terrain au cours des siècles. La publication en 1913 de l'ouvrage Les Atomes par Jean Perrin marquera finalement le triomphe de la théorie atomisteI.

La reconnaissance de la structure intime de l'atome démarre avec la découverte de l'électron, découverte qui fut l'aboutissement de travaux menés entre 1890 et 1900 en Angleterre, en Irlande, en Allemagne, en Hollande et en FranceII. En 1905, l'année où il conçoit la relativité restreinte, Albert Einstein propose de considérer la lumière comme un flux de particules élémentaires, de « quanta d'énergie localisés en des points de l'espace » , qui ont été appelés plus tard photons. L'existence de ces particules sera confirmée en 1923, par l'Américain Arthur Holly Compton*. Dix années plus tôt en 1911, une équipe de l'université de Manchester dirigée par Lord Rutherford démontre, à partir de données expérimentales le bombardement de feuilles d'or avec des atomes d'hélium chargés positivement que le centre des atomes est occupé par un noyau de très petite taille chargé positivement. En 1920, Rutherford baptise la charge positive du noyau proton . L'idée admise, à cette époque, est que le noyau contient les deux particules élémentaires, proton et électron. Mais douze années plus tard, James Chadwick, du laboratoire Cavendish à Cambridge, découvre à l'intérieur du noyau une particule électriquement neutre. Il la nomme neutron, celui-ci accède provisoirement au statut de particule élémentaire. L'idée qu'une sous-structure puisse exister à l'intérieur est venue ensuite naturellement... En 1964, Murray Gell-Mann et Georges Zweig élaboraient, de façon indépendante, le concept de quarks, constituants élémentaires des protons et des neutrons. Leur mise en évidence eut lieu dans les années 1970 aux Etats-Unis.

Une particule élémentaire ne peut se représenter - comme on le trouve encore souvent - par une petite bille. Entendons-nous : cette représentation naïve n'est pas incorrecte lorsqu'on se place dans le cadre de la mécanique classique ; la matière macroscopique n'est-elle pas symbolisée par les physiciens comme un ensemble de points matériels, de lieux où se concentre la masse ? En électromagnétisme, les mouvements de ces points peuvent être décrits grâce au concept de champ introduit par Faraday au milieu du XIXe siècle. Structure infinie étendue à l'ensemble de l'espace et du temps, le champ est devenu au fil des années un concept fondamental pour comprendre la matière. Mais il pose un problème. Comment, en effet, concilier ce concept, fondé sur des équations qui reposent sur la continuité, et la notion de particule, par essence discontinue ? La théorie quantique des champs introduite dans les années 1930 résout l'antagonisme. Alors que la mécanique classique va observer un morceau de matière et se poser les questions : dans quel état est-il ? quelle est sa vitesse, son énergie ? La théorie quantique des champs renverse le point de vue en disant : voici tous les états qui peuvent être occupés ou pas par des particules dans le cadre d'une interaction, comment sont-ils occupés ? Les champs quantiques sont les opérateurs qui remplissent ou vident ces états. Remplir c'est créer une particule, vider c'est l'annihiler. La particule n'est donc plus un point matériel mais un échantillon, un digit de champ quantique défini pour un certain type d'interaction. La comparaison avec l'informatique n'est pas gratuite : la particule élémentaire est en quelque sorte, un 1 ou un 0 dans un programme informatique. Les échantillons de champ peuvent être des constituants de la matière, les fermions*, ou bien être des vecteurs d'interactions, les bosons*. Bosons et fermions ont des propriétés très différentes. D'abord, le moment cinétique* intrinsèque ou spin est nul ou entier pour les bosons et demi-entier pour les fermions. Ensuite les fermions sont impénétrables. Lorsqu'il y en a un quelque part, on ne peut pas en rajouter un autre au même endroit. La matière ne se superpose pas. Les bosons, au contraire, peuvent tous se trouver dans le même état, au même endroit. Le photon est un boson : on superpose des rayons lumineux.Le théoricien et l'expérimentateur ne voient pas et ne représentent pas la particule de la même façon. Une particule étant pour le théoricien un digit de champ, le concept premier est donc, pour lui, le champ et non la particule. La nature des champs quantiques est prédéterminée par les quatre interactions fondamentales et par les symétries qu'elles respectent voir tableau ci-dessous.
Que signifie pour une interaction respecter une symétrie ? Prenons l'exemple de l'électromagnétisme. Pour décrire l'interaction électromagnétique, le physicien utilise la notion de potentiel*. Une dérivation* par rapport aux coordonnées de l'espace lui permet de passer du potentiel au champ. De la même façon qu'une famille infinie de droites parallèles possède la même pente, il existe une infinité de potentiels qui donnent le même champ.
Tous ces potentiels sont identiques à une « origine près » : si l'on transforme un potentiel en un autre, les équations n'en sont pas affectées. En mécanique quantique, les physiciens utilisent le terme d'invariance ou symétrie de jauge* pour décrire ce type de transformation. Or, il se trouve - sans que nous comprenions vraiment pourquoi - que les quatre interactions fondamentales et les équations qui les décrivent respectent des symétries de ce type.
Ceci a, bien sûr, des répercussions sur les champs quantiques associés aux interactions et donc sur les propriétés des particules, les digits de champs. Ainsi, quand un théoricien pense particules, il pense symétries, interactions, champs.
Dans les équations, il symbolise les particules par des potentiels, fonctions de plusieurs paramètres comme le temps t ou la position x, y, z. Mais l'expérimentateur, lui, voit les particules bien différemment.
Une particule est, à ses yeux, une signature dans un certain type de détecteur, autrement dit une trace ou un ensemble de traces. Il la désigne par des lettres u, Z, t, n, e ...et non par des potentiels ou des champs quantiques.Parmi les particules connues, certaines sont présentes dans la nature, comme l'électron, particule constitutive des atomes de matière, ou comme le neutrino, particule neutre présente dans les rayons cosmiques*. D'autres n'auraient existé que dans les tout premiers instants de l'Univers et ne peuvent être détectées qu'auprès des grands accélérateurs ou collisionneurs. Pourquoi ? Imaginons, que nous voulions découvrir dans une structure, comme le proton, une sous-structure plus petite. Une première idée est de sonder cette structure en envoyant une ou des particules sondes sur elle. Ces particules sondes ont, selon la dualité onde-corpuscule* établie par Louis de Broglie en 1923, des longueurs d'onde associées. Or, nous savons qu'un phénomène ondulatoire n'interagit qu'avec des objets de dimension supérieure à sa longueur d'onde un nageur ne perturbe pas la houle, laquelle se trouve en revanche affectée par la marche d'un paquebot.... Pour sonder des objets petits, il faut donc envoyer sur eux des particules sondes de très courte longueur d'onde, ce qui signifie aussi très énergiques. Les accélérateurs cible fixe ou les collisionneurs cible en mouvement sont construits sur ce principe. Détaillons ce qui se passe dans un collisionneur où deux faisceaux de particules de haute énergie circulent en sens opposés. La collision entre deux particules des deux faisceaux produit un choc d'où émergent d'autres particules en vertu du principe d'équivalence entre masse et énergie, le fameux E = mc2, une des conséquences de la théorie de la relativité restreinte élaborée en 1905 par Albert Einstein.
Plus le choc est énergique, plus les particules créées sont massives... ce qui ne veut pas dire qu'elles sont plus grosses, au contraire ! Plus elles sont massives, au sens énergétique du terme, plus leurs dimensions, ou encore leur longueur d'onde associée est petite... La durée de vie des particules est si brève, quelque 10­20 s, qu'aucune caméra, aucun microscope n'est capable d'observer directement le résultat de la collision. Ce que les expérimentateurs détectent ce sont les produits stables de leur désintégration. Pour connaître leur position et leur énergie, ils placent autour du point de collision plusieurs détecteurs qui forment une structure géante en oignon voir schéma.
Ces dispositifs sophistiqués ont une faiblesse : ils ne permettent pas d'arrêter les particules non chargées et n'interragissant que faiblement, comme les neutrinos.Dans la théorie de la relativité restreinte, la masse est reliée à l'énergie et à la quantité de mouvement* pÆ de la particule de la façon suivante : E2 ­ p2=m2 en supposant c = 1, c vitesse de la lumière dans le vide. Dans cette équation m est la masse invariante de la particule, m = E si pÆ = oÆ ; m est donc la masse au repos. Si la masse de la particule est nulle, on a E = p, autrement dit une particule de masse nulle est une particule qui va à la vitesse de la lumière quel que que soit le référen- tiel.
Conclusion : une particule de masse nulle est une particule qui n'est jamais au repos !Elles existent puisqu'on les a observées ! D'abord dans le rayonnement cosmique, puis dans les accéléra- teurs et les collisionneurs. Mais l'existence des antiparticules avait été suppo- sée avant qu'on puisse les observer, à la fin des années 1920 par le physicien britannique Paul Dirac. Pour réconcilier la mécanique quantique et la théorie de la relativité, il imagina une particule d'énergie positive, de masse égale à celle de l'électron, mais de charge électrique opposée. L'anti-électron positon était né. Ce dédoublement purement théorique du monde en « particules-antiparticules », autrement dit en « matière- antimatière » fut expérimentalement confirmé dès 1932. Aujourd'hui, toutes les anti-particules des particules élémentaires connues ont été découvertes.
Une antiparticule possède la même masse, le même spin que la particule du même nom mais des charges opposées - « charges » au pluriel. Toute particule ou antiparticule porte, en effet, un certain nombre de charges charge électrique, charge de couleur, nombre baryonique, charge de saveur.... Ces nombres sont des sortes d'étiquettes qui définissent le comportement de la particule ou de l'antiparticule dans les interactions.
L'une des grandes énigmes de la physique actuelle est le déficit d'antimatière mesuré dans l'Univers. Si la matière et l'antimatière ont des propriétés symétriques, pourquoi la nature aurait-elle préféré la première à la seconde ?
En 1967, le physicien russe Andrei Sakharov a proposé une théorie pour expliquer cette dissymétrie.Deux types de particules existent à l'intérieur du groupe des fermions voir p. 95 : d'un côté les leptons, qui ne participent pas à l'interaction forte, de l'autre les quarks, de différentes saveurs et de différentes couleurs qui participent à toutes les interactions. Les charges de saveur six au total et de couleur trois au total des quarks déterminent leur comportement vis-à-vis respectivement de l'interaction faible et forte. Les bosons, vecteurs des quatre interactions fondamentales, sont le photon pour l'interaction électromagnétique, les gluons pour l'interaction forte qui lient les quarks entre eux, les bosons W+, W­ et Zo, porteurs de l'interaction faible, enfin le graviton, le boson de la gravitation. Fermions et bosons ont été regroupés en trois familles dans le modèle standard, cadre conceptuel permettant de prédire tous les phénomènes mettant en jeu les interactions fondamentales autre que la gravitation*. Curieusement, les deux dernières familles peuvent être vues comme des répliques de la première à un détail près : leur particule ne se distingue des particules de la famille n° 1 que par leur masse ! Un muon est un autre électron sauf qu'il est un peu plus lourd, un tauon est un muon encore plus lourd. C'est un peu comme si la nature avait bégayé trois fois... Les physiciens l'admettent : le modèle standard qu'ils ont construit aurait très bien pu fonctionner avec une seule famille de particules. Pourquoi alors y en a-t-il trois, et pas une ou cinq ? C'est d'ailleurs une des grandes questions de la physique contemporaine. Ce bégaiement de la nature n'est pas sans conséquences. Pour le comprendre, revenons sur les symétries. La théorie des champs quantiques implique l'existence d'une symétrie dite CPT, produit des symétries C on remplace la charge par une charge opposée, P on change le signe des coordonnées spatiales, et T on renverse le sens du temps. L'invariance de la physique par cette symétrie CPT pouvait laisser penser qu'il existait aussi une invariance par C, par P, par CP et par T, pris séparément. Or, l'interaction faible brise ce principe : elle n'est pas invariante par CP. Pratiquement, cela signifie que, dans certains processus de désintégrations radioactives, changer la charge d'une particule en la charge opposée et regarder le résultat dans un miroir inversion des coordonnées, est un processus qui n'a pas la même probabilité que le processus de départ... Cette brisure de la symétrie CP pourrait donc expliquer la prédominance dans l'Univers de la matière sur l'antimatière, laquelle a toujours la charge opposée à la matière. Les physiciens sont parvenus à montrer que, dans le cadre du modèle standard, la brisure n'est possible que s'il existe au moins trois familles de particules. Une ne suffit pas, deux non plus. Autrement dit, le bégaiement de la nature serait une des clefs de la prédominance de la matière sur l'antimatière dans l'Univers...Aucune ne l'est en principe. Elles peuvent en revanche être plus ou moins difficiles à observer, comme les neutrinos, ces leptons de charge électrique nulle. L'existence de ces particules neutres fut prédite par Wolfgang Pauli en 1932. Vingt ans plus tard, on découvrait le premier neutrino. Les neutrinos sont difficiles à observer car ils ne sont pas chargés et ne participent qu'à l'interaction faible : leur probabilité d'interagir avec la matière est par conséquent quasi nulle. Cette propriété complique aussi la mesure de leur masse, laquelle est peut-être nulle. La détection des quarks est, elle aussi, difficile même si ces fermions participent à toutes les interactions. Un quark ne peut s'observer directement pour la bonne raison qu'il se déplace toujours en bande, soit avec deux autres quarks, soit avec un antiquark.
Nous savons de plus qu'il existe trois couleurs possibles pour un quark ; or, ces couleurs sont telles que leur mélange par trois ou par deux produit des objets « blancs » - les seuls visibles d'après la théorie de l'interaction forte. Nous ne pouvons donc observer directement que les assemblages de quarks mais jamais les quarks isolés !Le physicien des particules ne peut répondre à cette question. Il peut certes prédire, grâce au modèle standard , un certain nombre de variables mais pas la valeur exacte des masses des particules. En revanche, la question « Pourquoi les particules élémentaires ont-elles une masse ? » occupe de nombreux théoriciens et expérimentateurs. En effet, d'après le modèle standard actuel, toutes les particules devraient logiquement être de masse nulle ! Pour comprendre cela, revenons quelques instants sur les propriétés d'invariance. Nous avons vu les quatre interactions fondamentales respectaient des invariances de jauge. Or, ces symétries imposent aux particules d'interaction, les bosons, d'être de masse nulle. C'est bien le cas du photon interaction électromagnétique ou des gluons interaction forte mais pas des bosons intermédiaires interaction faible très massifs 90 GeV, soit quatre-vingt dix fois la masse du proton. Pour expliquer ce phénomène, les physiciens ont inventé un nouveau champ quantique, le champ de Higgs, générateur de masse, et une nouvelle interaction associée, le mécanisme de Higgs. Pourquoi le champ de Higgs aurait-il rendu massives toutes les particules, à l'exception du photon et du gluon ? D'après le modèle standard, le phénomène correspond à une brisure spontanée de symétrie du champ de Higgs dans l'état fondamental stable qu'est le vide. C'est un peu comme si vous posiez une bille au fond d'une bouteille : l'état stable est trouvé lorsque la bille est à gauche ou à droite du cul de la bouteille état non symétrique, pas au-dessus état symétrique. Si le mécanisme de Higgs est valide, il faut alors imaginer l'existence d'une particule massive associée, le dénommé boson de Higgs. La course au boson de Higgs a d'ores et déjà commencé. Sa masse importante, quelques centaines de GeV, pourrait expliquer qu'on ne l'a pas encore découvert... Le grand projet de collisionneur à 14 TeV du CERN sera le test grandeur nature du mécanisme de Higgs.

Elémentaires, direz-vous ?
Pour certains physiciens, la structure de la matière en quarks, leptons et bosons pourrait n'être qu'une image encore très simplifiée de la réalité. Au plan théorique, le mécanisme de Higgs possède d'ailleurs de nombreuses inconsistances.
Une amélioration possible est d'envisager l'existence d'une sous-structure au sein des particules du modèle standard. Les énergies correspondantes seraient mille fois plus élevées que les énergies qui ont permis de mettre en évidence les quarks. Si elle existe, cette sous-structure doit impérativement être compatible avec toutes les observations réunies jusque-là. Une contrainte qui limite énormément l'ensemble des solutions mais qui laisse encore de la place à la discussion... Une autre façon d'améliorer le mécanisme de Higgs est l'idée qu'il existe deux autres bosons de Higgs donc deux autres champs quantiques de Higgs et surtout que chaque particule du modèle standard actuel possède un partenaire supersymétrique. Dans cette hypothèse, les bosons auraient des partenaires fermions, et les fermions des partenaires bosons. Tous ces partenaires supersymétriques auraient des masses de quelques centaines de GeV...
Ce nouveau dédoublement du monde après celui de la « matière-antimatière » sera testé sur le futur LHC au CERN. Mais l'imagination des physiciens ne s'est pas arrêtée là... Une approche, radicalement différente, proposée à la fin des années 1970, consiste à imaginer que les champs quantiques actuellement répertoriés ne sont que des approximations de basse énergie d'un phénomène que les physiciens désignent sous le terme de super-cordes.
Dans ce cadre conceptuel, les particules élémentaires actuellement repertoriées seraient des modes, des exci- tations d'une corde, objet fondamental étendu de très petite taille. Pour être étudié, ce modèle, sorte de théorie fondamentale ultime de la physique quantique, nécessiterait des énergies de 1019 GeV, soit l'énergie d'un Boeing 747 à sa vitesse de croisière concentré dans une particule ! La théorie des supercordes sera-t-elle validée aux basses énergies sur le LHC ? Certains en ont fait le pari.

DOCUMENT larecherche.fr LIEN

AUTISME

21/01/2016

Paris, 12 janvier 2016

L'autisme se cache-t-il dans un pli du cerveau ?

Des chercheurs du CNRS, d'Aix-Marseille Université et de l'AP-HM ont identifié un marqueur cérébral spécifique de l'autisme, détectable par IRM et présent dès l'âge de deux ans. L'anomalie repérée consiste en un pli moins profond au niveau de l'aire de Broca, une région du cerveau spécialisée dans le langage et la communication, des fonctions altérées chez les patients atteints d'autisme. Cette découverte pourrait aider au diagnostic et à une prise en charge plus précoces de ces patients. Elle a été rendue possible par les compétences en traitement d'imagerie médicale de l'Institut de neurosciences de la Timone (CNRS/Aix-Marseille Université) et par l'accès à une cohorte de patients homogène, diagnostiqués très jeunes et ayant tous été évalués selon le même protocole au Centre de ressources autisme PACA. Les résultats de leur collaboration sont publiés le 12 janvier 2016 dans la revue Biological Psychiatry: Cognitive Neurosciences and Neuroimaging.

Les troubles du spectre autistique sont un ensemble de troubles neurodéveloppementaux (autisme typique, syndrome d'Asperger ou encore trouble envahissant du développement non spécifié) qui affectent principalement les relations sociales et la communication. Ils sont associés à un développement anormal du cerveau. Les données récentes en neuro-imagerie suggèrent notamment l'existence d'anomalies dans le plissement du cortex cérébral (la formation des circonvolutions à la surface du cerveau). Cependant, les mesures classiques de neuro-anatomie avaient échoué, jusqu'à maintenant, à mettre en évidence des marqueurs spécifiques de chacune de ces troubles, et notamment de l'autisme typique.

Des chercheurs de l'Institut de neurosciences de la Timone se sont intéressés à un nouveau marqueur géométrique, appelé « sulcal pit ». Il s'agit du point le plus profond de chaque sillon du cortex cérébral. C'est à partir de ces points que se développent les plis présents à la surface du cerveau. Ils sont donc mis en place très tôt au cours du développement, probablement sous influence génétique, ce qui en fait des indicateurs adaptés aux comparaisons entre individus.

A partir de résultats d'IRM, les chercheurs ont observé les sulcal pits chez 102 jeunes garçons âgés de 2 à 10 ans, classés en trois groupes (enfants atteints d'autisme typique, enfants atteints de trouble envahissant du développement non spécifié et enfants dépourvus de troubles du spectre autistique). En comparant les trois groupes, ils ont découvert que, dans l'aire de Broca (une région connue pour être impliquée dans le langage et la communication), la profondeur maximale d'un sillon était moindre chez les enfants atteints d'autisme par comparaison aux deux autres groupes. De manière intéressante (bien que contre-intuitive), cette atrophie très localisée est corrélée aux performances de communication chez le groupe d'enfant autistes : plus le sulcal pit est profond, plus les compétences en termes de production de langage sont limitées.

Cette anomalie spécifique aux enfants atteints d'autisme pourrait donc constituer un biomarqueur de la pathologie qui pourrait aider à un diagnostic et à des prises en charge plus précoces, dès l'âge de deux ans. En effet, à l'heure actuelle, l'autisme est diagnostiqué sur la base uniquement de signes cliniques, à partir de l'observation des enfants et d'entretiens avec leurs parents et le diagnostic est posé en moyenne à 4 ans et demi en France.

Cette étude a aussi débouché sur une découverte concernant le développement du cerveau. Alors que l'on pensait que le plissement du cortex était achevé à la naissance, les chercheurs ont observé que certains sillons (les plus superficiels) continuent à se creuser avec l'âge. Et ce, de manière identique chez les enfants atteints d'autisme et chez les autres. La recherche biomédicale peut donc également nous éclairer sur la compréhension des mécanismes du vivant.

DOCUMENT CNRS LIEN

MATHÉMATIQUES

21/01/2016

Paris, 14 octobre 2015

Une avancée sur la compréhension mathématique des équations d'Einstein

Énoncée il y a quinze ans, la conjecture de courbure L2 a enfin été démontrée par un groupe de trois chercheurs du laboratoire Jacques-Louis Lions (CNRS/UPMC/Université Paris Diderot) et de l'université de Princeton. Elle fournit un cadre potentiellement minimal dans lequel il est possible de résoudre les équations d'Einstein. Cela pourrait être une étape cruciale vers la démonstration de conjectures majeures, comme les conjectures de censures cosmiques de Penrose. Ce travail a été publié le 14 octobre 2015 dans la revue Inventiones Mathematicae.

La théorie de la relativité générale d'Albert Einstein a beau fêter ses cent ans cette année, elle recèle encore son lot de mystères. Cette théorie de la gravitation stipule que la matière courbe l'espace-temps avec un effet d'autant plus fort que la masse de l'objet est importante. Ce phénomène se mesure grâce à un outil mathématique appelé tenseur de courbure, sur lequel la conjecture de courbure L2 se concentre afin de trouver des cadres possibles pour construire des solutions aux équations d'Einstein. Énoncée il y a quinze ans par Sergiu Klainerman, cette conjecture a enfin été démontrée grâce aux travaux de Sergiu Klainerman, Igor Rodnianski et Jérémie Szeftel.

La conjecture de courbure L2 stipule que les équations d'Einstein admettent une solution si, à l'instant initial, le tenseur de courbure de l'espace est de carré intégrable, c'est-à-dire que l'intégrale de son carré est un nombre fini. Cette résolution de la conjecture de courbure L2 est importante car elle constitue une étape probable vers la démonstration des célèbres conjectures de censure cosmique de Penrose, qui traitent des singularités gravitationnelles. Il s'agit de régions pathologiques de l'espace-temps où le champ gravitationnel devient infini, comme au centre d'un trou noir. La présence de tels cas dans les solutions aux équations d'Einstein pourrait remettre en cause la validité physique de la relativité générale.

Roger Penrose présume que ces singularités ne sont jamais visibles car elles sont génériquement cachées derrière l'horizon des événements : la zone d'un trou noir à partir de laquelle la lumière ne peut plus s'échapper et donc nous parvenir. Si ces phénomènes restent encore bien loin de notre portée, les équations qui les régissent sont aujourd'hui un peu moins mystérieuses grâce à ces travaux.

DOCUMENT cnrs LIEN

Articles

Comment le phytoplancton domine-t-il les océans

hier


Paris, 20 juin 2017
Comment le phytoplancton domine-t-il les océans ?

La photosynthèse est un processus unique qui, dans le monde vivant, a permis la colonisation des terres et des océans, respectivement par les plantes et le phytoplancton. Si les mécanismes de la photosynthèse sont bien connus chez les plantes, les scientifiques commencent seulement à comprendre comment le phytoplancton a développé une photosynthèse. Dans le cadre d'une collaboration internationale1, des chercheurs du Laboratoire de physiologie cellulaire & végétale (CNRS/CEA/UGA/Inra)2, de l'Institut de biologie structurale (CNRS/CEA/UGA), du Laboratoire d'études des matériaux par microscopie avancée (CEA/UGA)3, et du Laboratoire de physiologie membranaire et moléculaire du chloroplaste (CNRS/UPMC) proposent un modèle structural du processus photosynthétique chez le phytoplancton, en étudiant la diatomée Phaeodactylum tricornutum. Ces résultats sont publiés le 20 Juin 2017 dans Nature communications.
La photosynthèse est un mécanisme remarquable de production d'énergie chimique à partir d'énergie lumineuse. Ce processus est possible grâce à deux petites usines photochimiques, appelées photosystèmes I et II. Mais pour que la photosynthèse puisse avoir lieu, ces deux photosystèmes ne doivent pas être en contact afin d'éviter les courts-circuits, qui diminuent la photosynthèse. Chez les plantes, ils sont séparés par des structures (image A) qui ne semblent pas exister chez le phytoplancton (image B). Comment le phytoplancton peut-il donc être responsable de la moitié de la photosynthèse sur Terre ?

En adaptant différentes approches d'imagerie cellulaire à haute résolution appliquées à la diatomée Phaeodactylum tricornutum, les chercheurs ont été en mesure de développer un modèle 3D du système photosynthétique des diatomées (image C). Ils ont ainsi observé l'existence de micro-domaines qui séparent, comme chez les plantes, les deux photosystèmes, permettant une photosynthèse encore plus efficace. L'ensemble de ces résultats explique comment les diatomées produisent chaque jour environ 20 % de l'oxygène libéré sur Terre et pourquoi elles dominent les océans depuis environ 100 millions d'années.

Les chercheurs continuent de développer ce modèle 3D de la photosynthèse chez les diatomées, qui leur permettra notamment de comprendre comment ces organismes unicellulaires s'adapteront aux conséquences des changements climatiques. 

 


            DOCUMENT       cnrs        LIEN

Prévision des séismes une technique innovante pour observer les failles sous-marines

Il y a 7 jours

Paris, 8 juillet 2016
Prévision des séismes : une technique innovante pour observer les failles sous-marines

Pour surveiller un segment de la faille sismique nord-anatolienne près d'Istanbul, une équipe internationale de chercheurs, notamment du CNRS et de l'université de Bretagne occidentale, a déployé un réseau de balises au fond de la mer de Marmara. Objectif : mesurer les mouvements des fonds marins de part et d'autre de ce segment. Les données récoltées lors des six premiers mois révèlent que la faille serait bloquée au niveau de ce segment, suggérant une accumulation progressive d'énergie susceptible d'être libérée brusquement. Ce qui pourrait provoquer un séisme de forte magnitude à proximité d'Istanbul. Cette étude, issue d'une collaboration entre des chercheurs français, allemands et turcs, vient d'être publiée dans Geophysical Research Letters.
La faille nord-anatolienne, responsable de tremblements de terre destructeurs en 1999 en Turquie, est comparable à la faille de San Andreas en Californie. Elle constitue la limite des plaques tectoniques eurasiatique et anatolienne, qui se déplacent l'une par rapport à l'autre d'environ 2 cm par an. Le comportement d'un segment sous-marin de cette faille, situé à quelques dizaines de kilomètres au large d'Istanbul, en mer de Marmara, intrigue particulièrement les chercheurs, car il semble exempt de sismicité depuis le 18e siècle. Comment se comporte ce segment ? Glisse-t-il en continu, cède-t-il régulièrement, provoquant de petits séismes épisodiques de faible magnitude ou est-il bloqué, laissant présager une future rupture et donc un fort séisme ?

Observer in situ le mouvement d'une faille sous-marine sur plusieurs années est un vrai défi. Pour le relever, les chercheurs testent une méthode de télédétection sous-marine innovante, à l'aide de balises acoustiques actives, autonomes et interrogeables à distance depuis la surface de la mer. Posées sur le fond marin de part et d'autre de la faille à 800 mètres de profondeur, ces balises s'interrogent à tour de rôle par paire et mesurent le temps aller-retour d'un signal acoustique entre elles. Ces laps de temps sont ensuite convertis en distances entre les balises. C'est la variation de ces distances dans le temps qui permet de détecter un mouvement des fonds marins et la déformation du réseau de balises, de déduire les déplacements de la faille. Concrètement, un réseau de dix balises françaises et allemandes a été déployé lors d'une première campagne en mer1 en octobre 2014. Les six premiers mois de données (temps de parcours, température, pression et stabilité)2 confirment les performances de la méthode. Après calculs, les données ne révèlent aucun mouvement significatif de la faille surveillée, dans la limite de résolution du réseau. Les distances entre balises, séparées de 350 à 1700 mètres, sont mesurées avec une résolution de 1,5 à 2,5 mm. Ce segment serait donc bloqué ou quasi-bloqué, et accumulerait des contraintes susceptibles de générer un séisme. L'acquisition d'information sur plusieurs années sera cependant nécessaire pour confirmer cette observation ou caractériser un fonctionnement plus complexe de cette portion de faille.

Si, au-delà de cette démonstration, cette approche dite de « géodésie acoustique fond de mer » s'avère robuste sur le long terme (ici 3 à 5 ans sont envisagés dans la limite d'autonomie des batteries), elle pourrait être intégrée dans un observatoire sous-marin permanent en complément d'autres observations (sismologie, émission de bulles, …) pour surveiller in situ et en temps réel l'activité de cette faille en particulier, ou d'autres failles actives sous-marines dans le monde.

Ces travaux sont menés par le Laboratoire Domaines océaniques3 (LDO, CNRS/Université de Bretagne occidentale), en collaboration avec le laboratoire Littoral environnement et sociétés (CNRS/Université de La Rochelle), l'institut Geomar à Kiel (Allemagne), le Centre européen de recherche et d'enseignement de géosciences de l'environnement (CNRS/Collège de France/AMU/IRD), le Laboratoire Géosciences marines de l'Ifremer, l'Eurasian Institute of Earth Sciences de l'Université Technique d'Istanbul (Turquie) et le Kandilli Observatory and Earthquake Research Institute de l'Université Bogazici d'Istanbul. Cet article est dédié à la mémoire d'Anne Deschamps, chargée de recherche CNRS au LDO, initiatrice et responsable du projet, décédée peu après avoir conduit avec succès le déploiement de ces balises.

 

 DOCUMENT         cnrs        LIEN 

LE CLIMAT MÉCANISMES ET VARIABILITÉ

Il y a 15 jours

LE CLIMAT : MÉCANISMES ET VARIABILITÉ
"Le climat peut se définir comme la distribution statistique des conditions météorologiques prévalant dans les basses couches de l'atmosphère où vivent les hommes. Celles-ci sont le résultat de mécanismes variés mettant en jeu l'énergie reçue du soleil, le rayonnement tellurique, la composition chimique de l'atmosphère, la rotation de la Terre, la topographie des continents, la dynamique des deux fluides que sont l'atmosphère et océan, le cycle de l'eau, la végétation et l'hydrologie des sols. La circulation de l'atmosphère et de l'océan détermine les climats régionaux et assure le transport de l'énergie des tropiques vers les pôles, et plus généralement, des régions excédentaires vers les régions déficitaires. Les grandes caractéristiques du climat sont associées dans les tropiques, à la circulation de Hadley-Walker qui module les saisons des pluies équatoriales et les déserts subtropicaux ; et dans les moyennes latitudes, aux contrastes thermiques qui induisent des régimes de temps dominés par d'incessantes perturbations. Enfin, le climat n'est jamais réellement en équilibre : il varie à toutes les échelles de temps sous l'effet des effets tectoniques, des fluctuations du mouvement orbital de la Terre, des variations de l'irradiation solaire, et aujourd'hui, des perturbations planétaires dues à l'activité des hommes.. "

 

Le climat

par Robert Sadourny

Qu'est-ce que le climat ?

Comme la météorologie est la science des météores, en particulier du temps qu'il fait ou qu'il va faire, la climatologie est la science du climat, c'est à dire la science des probabilités ou des statistiques sur le temps. On entend trop souvent dire qu'une fête a été gâchée (par exemple) « en raison des mauvaises conditions climatiques », alors qu'il s'agit là, bien sûr, de mauvaises conditions météorologiques : le climat ne change pas quand en quelques jours, on passe du beau temps au mauvais temps !

Quand nous parlons de climat, de quel système physique parlons-nous ? Le système climatique inclut naturellement les basses couches de l'atmosphère où nous vivons, et les couches plus élevées dont le comportement est étroitement lié à celles-ci : principalement la troposphère et dans une moindre mesure, la stratosphère. Ce système inclut aussi les océans et les couches superficielles des terres émergées, qui échangent de l'eau et de la chaleur avec l'atmosphère, et bien sûr, les glaces de terre et de mer. Mais l'étude du climat ne se réduit pas à celle d'un système physique. Le climat interagit très fortement avec la chimie de l'atmosphère et de l'océan, et aussi avec la biosphère, c'est à dire l'ensemble des êtres vivants.

Étudier le climat, c'est non seulement observer continûment, sur l'ensemble du globe et durant de longues périodes, le comportement de l'atmosphère, de l'océan, des glaces et des terres émergées, mais aussi modéliser l'ensemble des mécanismes du système pour simuler son évolution. C'est en comparant le climat simulé au climat observé que nous mesurons notre niveau de compréhension des mécanismes, et donc nos capacités à prédire les évolutions futures. La climatologie s'est développée très rapidement à l'ère des satellites et des calculateurs. Les sondeurs spatiaux placés à bord de satellites à défilement, à orbite quasi-polaire, comme la série météorologique opérationnelle américaine Nimbus, permettent de suivre l'évolution des profils verticaux de la température et de l'humidité sur l'ensemble du globe. Les radiomètres à bande large, comme ERBI, ScaRaB ou CERES nous permettent de suivre les variations spatio-temporelles du bilan d'énergie de la planète. Les satellites géostationnaires comme Météosat observent en permanence les tropiques et les latitudes moyennes de leur position équatoriale à 36 000 km d'altitude. L'altimètre de TOPEX-Poséidon mesure, avec une précision de quelques centimètres, l'altitude du niveau de la mer, qui nous renseigne sur la dynamique des courants.

Quant aux modèles de climat, ce sont bien sûr des modèles pronostiques, qui décrivent une évolution dans le temps à partir d'une situation initiale donnée, comme les modèles de prévision météorologique. Mais ils doivent inclure, en plus de l'atmosphère, des océans et des glaces de mer interactifs, ainsi que les couverts végétaux et l'hydrologie des terres émergées. Ces modèles simulent en particulier le cycle de l'eau dans son ensemble, la formation des divers types de nuages, la formation de glaces de mer ; ils commencent aujourd'hui à inclure une végétation interactive et certains cycles chimiques comme le cycle du carbone et celui de l'ozone stratosphérique. Le coût de calcul est tel que, dans la pratique, la durée d'une simulation dépasse rarement le siècle ; pour des simulations plus longues, il faut user de modèles simplifiés. Le résultat d'une simulation est une évolution, c'est à dire une succession d'états instantanés du système ; l'interprétation climatologique de cette simulation repose ensuite sur l'analyse statistique de cet succession d'états. C'est d'ailleurs bien parce que le climat est un problème statistique que nous pouvons prolonger nos simulations bien au delà de la limite de prévisibilité de l'atmosphère (une douzaine de jours au plus) : on ne s'intéresse plus, comme dans la prévision du temps, aux perturbations individuelles, mais à leurs probabilités d'occurrence. Ces statistiques sont basées, soit sur des moyennes temporelles, soit sur des ensembles de simulations indépendantes. Ces dernières sont relativement faciles à construire. Il suffit par exemple de perturber très légèrement les états initiaux : à cause des instabilités du système, deux solutions initialement très proches deviennent totalement décorrélées dès qu'on atteint la limite de prévisibilité.

Énergie et climat

Le climat est d'abord une affaire d'énergie. L'apport d'énergie vient presque exclusivement du soleil ; il se répartit dans l'espace et dans le temps en fonction du mouvement orbital de la Terre, de la rotation de celle-ci sur elle-même, et des variations dans le temps de la puissance solaire. La façon dont cette énergie solaire incidente traverse l'atmosphère, pénètre à la surface, se transforme en d'autres types d'énergie comme l'énergie latente ou l'énergie potentielle, puis est réémise vers l'espace à travers l'atmosphère sous forme d'énergie infrarouge, dépend de la composition physico-chimique de l'atmosphère, du cycle de l'eau, des propriétés optiques de l'océan, de l'état des surfaces émergées et de leur couvert végétal, et enfin du transport d'énergie d'un endroit à l'autre de la planète par les mouvements de l'atmosphère et de l'océan. L'ensemble du système peut s'interpréter comme une sorte d'énorme machine thermique.

Intéressons-nous d'abord aux valeurs moyennes qui déterminent le climat terrestre. La luminosité solaire actuelle correspond à un flux incident d'énergie solaire d'environ 1368 Wm-2 ; si nous répartissons ce flux sur l'ensemble de la surface terrestre (soit quatre fois la section du cylindre intercepté par la Terre), nous obtenons une valeur moyenne de 342 Wm-2. De ce flux incident, environ 30 %, soit 102 Wm-2, est réfléchi ou rétrodiffusé vers l'espace par les nuages, les aérosols, la neige et les parties les plus réfléchissantes de la surface, notamment les déserts. Restent donc 240 Wm-2 qui sont réellement absorbés par le système : environ 65 par l'atmosphère, le reste, environ 175, servant à chauffer la surface. Le fait que presque les trois quarts de l'énergie solaire absorbée le soit au niveau de la surface entraîne naturellement que la température de l'air décroît quand on s'élève ; mais l'effet de serre accentue très fortement cette décroissance. En effet, la surface chauffée par le rayonnement solaire restitue son énergie à l'espace principalement sous forme de rayonnement infrarouge, dont une partie est absorbée et réémise vers le bas par l'écran des gaz à effet de serre (vapeur d'eau, CO2, méthane, N2O, ozone, halocarbures) ainsi que par les nuages. Cet effet de serre piège ainsi une grande quantité de chaleur dans les basses couches, dont il contribue à élever encore la température. Le rayonnement intercepté par l'effet de serre est de l'ordre de 155 Wm-2 ; cette valeur est une mesure de l'effet de serre total. Une autre mesure possible de l'effet de serre est le réchauffement qu'il entraîne pour la surface : 33°C, calculé comme la différence entre la température moyenne de la surface (288 K), et la température de la Terre vue de l'espace à travers l'atmosphère (255 K).

Les radiomètres à bandes larges comme ScaRaB (CNRS-CNES), qui mesurent le bilan radiatif depuis l'espace, nous renseignent sur les flux nets de rayonnement solaire et infrarouge irradiés par la Terre vers l'espace. Combinées avec les mesures de surface, les données de ces instruments permettent par exemple d'étudier la modulation de l'effet de serre par la température de surface, par la vapeur d'eau (le plus abondant des gaz à effet de serre) et par les nuages. D'après ScaRaB, la contribution des nuages à l'effet de serre global est d'environ 30 Wm-2, alors qu'ils augmentent la réflectivité de la planète de 48 Wm-2 : l'effet radiatif net des nuages va donc dans le sens d'un refroidissement du climat par 18 Wm-2. Bien sûr, il s'agit là d'une valeur moyenne : l'effet radiatif varie selon les types de nuages, et se répartit diversement en fonction des lieux et des saisons.

En moyenne sur le globe et dans le temps, le bilan d'énergie de la planète Terre est à peu près équilibré : la Terre irradie vers l'espace dans l'infrarouge une énergie sensiblement égale à celle qu'elle reçoit du soleil. Mais il est bien évident que cet équilibre ne peut être qu'approché, à cause des oscillations permanentes - diurnes, saisonnière et autres - du système climatique, et aussi, aujourd'hui, de la perturbation faible mais significative due à l'activité planétaire des hommes.

Le rôle de l'atmosphère et de l'océan

Par contre, en un point donné de la Terre, le bilan des échanges d'énergie avec l'espace est loin d'être équilibré. Dans les tropiques, la Terre reçoit plus d'énergie solaire qu'elle n'émet de rayonnement infrarouge ; dans les régions polaires, c'est l'inverse. Les régions d'excédent ou de déficit énergétique sont modulées par les saisons : l'hémisphère d'hiver est partout déficitaire, c'est à dire qu'en tout point, il perd de l'énergie vers l'espace. Certaines régions du globe sont même déficitaires durant toute l'année. C'est le cas des déserts subtropicaux comme le Sahara : l'air au dessus du Sahara étant particulièrement sec et sans nuage, l'effet de serre est minimal, ce qui entraîne une forte perte d'énergie infrarouge (d'où des températures nocturnes très basses) ; en outre, l'absence de végétation se traduit par une forte réflectivité de la surface, qui renvoie vers l'espace 30 à 40 % de l'énergie solaire incidente. La conjugaison de ces deux mécanismes fait de la région saharienne un puits d'énergie qui persiste tout au long de l'année.

La distribution du bilan net, ou flux net d'énergie entre la Terre et l'espace, nous renseigne sur les mouvements de l'atmosphère et de l'océan. En effet, ce sera le rôle de ces deux fluides de transporter l'excès d'énergie reçue ici ou là, vers les régions où le déficit domine. En particulier, l'océan et l'atmosphère vont transporter l'énergie de la bande tropicale vers les moyennes et les hautes latitudes, plus particulièrement du côté de l'hémisphère d'hiver. Intégrés sur un parallèle et sur l'épaisseur de l'atmosphère et de l'océan, ces flux méridiens sont de l'ordre de 5x1015 Watts. L'océan et l'atmosphère prennent une part sensiblement égale à ces transferts.

Comment l'atmosphère et l'océan peuvent-ils transporter l'énergie d'un endroit à l'autre de la planète ?

Un premier mécanisme est le mélange horizontal des masses d'air. Il est surtout efficace dans l'atmosphère, aux latitudes moyennes et pendant l'hiver, là où la température varie très rapidement avec la latitude. L'instabilité de l'écoulement atmosphérique crée des perturbations (basses pressions autour desquelles l'air tourne à peu près horizontalement dans le sens inverse des aiguilles d'une montre) qui brassent l'air chaud et souvent humide venant des subtropiques, avec l'air froid et plutôt sec venant des hautes latitudes. Cet échange se traduit par un flux de chaleur et d'énergie latente (ou vapeur d'eau) allant des subtropiques vers les hautes latitudes. Le brassage par les perturbations n'est efficace pour transporter l'énergie que parce qu'il mélange des masses d'air subtropical très énergétique, avec des masses d'air subpolaire qui le sont beaucoup moins.

Dans la bande tropicale, ce type de transport devient totalement inefficace, car les températures sont horizontalement très uniformes, et il en est de même des niveaux d'énergie. L'énergie sera transportée par des mouvements tridimensionnels, organisés en rouleaux, avec des régions d'ascendance et des régions de subsidence, le fluide allant dans les hautes couches, des régions d'ascendance vers les régions de subsidence, et dans les basses couches, des régions de subsidence vers les régions d'ascendance. Pour comprendre comment des rouleaux verticaux peuvent transporter de l'énergie suivant l'horizontale, il nous faut dire quelques mots de deux propriétés très importantes de l'atmosphère et de l'océan : il s'agit de la stratification et de la stabilité.

L'atmosphère et l'océan sont des fluides presque partout stratifiés en densité, en pression et en température : la densité, la pression et la température varient beaucoup plus vite (par plusieurs ordres de grandeur) suivant la verticale que suivant l'horizontale. L'origine de la stratification en température de l'atmosphère est, on l'a vu, le chauffage par la surface et l'effet de serre ; quant à l'océan, il est aussi chauffé par la surface et la température décroît naturellement quand on s'enfonce. Il va de soi que, partout où ces stratifications sont établies, elle sont stables, c'est-à-dire que le fluide léger est situé au dessus du fluide plus lourd ; les mouvements sont quasi-hydrostatiques. On démontre qu'une stratification est stable si l'énergie croît quand on s'élève.

Puisqu'il en est ainsi, il est clair que dans une circulation en rouleaux, la branche supérieure transporte plus d'énergie des ascendances vers les subsidences, que la branche inférieure n'en transporte des subsidences vers les ascendances. Le bilan net sera donc un transport d'énergie des ascendances vers les subsidences : les régions excédentaires en énergie seront des régions d'ascendance, et les régions déficitaires, des régions de subsidence.

Dans l'atmosphère, les régions excédentaires se trouvent principalement dans les tropiques, là où l'atmosphère reçoit un fort apport d'énergie à la surface : sur les continents, là où le soleil est au zénith, et sur l'océan, là où la surface de l'eau est particulièrement chaude. Cet apport d'énergie à la base a un effet déstabilisateur : les ascendances s'accompagnent de puissants mouvements convectifs (cumulonimbus pouvant atteindre jusqu'à 20 km de hauteur) qui transportent l'énergie vers le haut et restabilisent la stratification. Les masses d'air léger, chaud et humide qui montent dans ces tours convectives se refroidissent, leur humidité se condense et retombe en pluie : le passage du soleil au zénith sur les continents tropicaux correspond ainsi à la saison des pluies ou mousson. C'est donc un air froid et sec qui atteint les hautes couches et se dirige vers les régions déficitaires en énergie comme les déserts, où il redescend vers la surface. Ainsi, la désertification favorise le développement d'une subsidence d'air sec, qui en retour, favorise la désertification. Le contraste entre les régions convectives et humides, et les régions de subsidence où l'air est sec sont particulièrement visibles sur les images du canal vapeur d'eau de Météosat.

Dans l'océan, c'est la déperdition d'énergie à la surface, aux hautes latitudes, qui tend à violer la condition de stabilité et déclenche la convection. Celle-ci se produit surtout dans les mers de Norvège et du Labrador, et, près de l'Antarctique, dans la mer de Weddell, où l'eau lourde, froide et salée plonge et alimente la circulation abyssale.

La vapeur d'eau dans l'atmosphère, le sel dans l'océan sont tous deux des facteurs déstabilisants pour la stratification. Les seules sources de la vapeur d'eau atmosphérique (ou énergie latente) se trouvent à la surface : c'est l'évaporation sur l'océan, les surfaces d'eau ou les sols humides, ou l'évapotranspiration des couverts végétaux. De plus, la pression de vapeur saturante décroît exponentiellement quand la température s'abaisse : un air très froid ne peut absorber que très peu de vapeur d'eau. L'énergie latente est donc confinée dans les tropiques et surtout dans les basses couches de l'atmosphère, ce qui va à l'encontre de la loi de stabilité. C'est la raison pour laquelle la convection tropicale est dominée par la convection humide. Dans l'océan, l'évaporation à la surface alourdit l'eau superficielle en la chargeant en sel. Aux hautes latitudes, la formation de glace de mer est une source additionnelle de sel : le sel expulsé par la glace vient alourdir l'eau de surface, favorisant l'apparition de cheminées convectives, où se forme l'eau profonde.

Dans l'atmosphère tropicale, la circulation en rouleaux peut se schématiser en moyenne zonale sous le nom de cellule de Hadley, qui transporte l'énergie de ce que l'on appelle l'équateur météorologique, vers les subtropiques de l'hémisphère d'hiver. Au delà des subtropiques, c'est le mélange horizontal qui prend le relais pour transporter l'énergie vers les pôles. Il est intéressant de noter que lorsqu'on s'élève, si l'énergie totale et bien sûr l'énergie potentielle croissent, la chaleur sensible et l'énergie latente décroissent. Si donc les rouleaux exportent de l'énergie totale des régions d'ascendance, ils y importent en même temps de l'énergie sensible et latente, favorisant ainsi la convection et le maintien des rouleaux.

L'analogue dans l'océan des circulations en rouleaux dans l'atmosphère est la circulation tridimensionnelle dite thermohaline, parce qu'elle est gouvernée par les variations de flottaison due à la dilatation thermique et à la salinité. L'eau froide et salée qui plonge dans les mers de Norvège et du Labrador s'écoule lentement vers le sud au fond de l'Atlantique, franchit l'équateur et contourne le cap de Bonne Espérance pour rejoindre l'Océan Indien où une partie remonte à la surface ; le reste poursuit sa route vers l'est et remonte à la surface à son tour dans le Pacifique équatorial. Sous l'effet des alizés, ces eaux de surface reprennent ensuite le chemin inverse, et remontent vers le nord de l'Atlantique où elles se refroidissent, se chargent en sel, et ainsi alourdies, plongent à nouveau. Cette circulation de « tapis roulant océanique » est extrêmement lente, puisque la durée du cycle est de l'ordre de 500 ans à 1 000 ans. C'est elle qui réchauffe aujourd'hui le climat européen et en fait, à latitude égale, le plus tempéré du globe.

L'atmosphère et l'océan nous apparaissent ainsi comme les deux acteurs principaux du grand jeu climatique. Le dialogue entre ces deux acteurs joue un rôle central : les vents entraînent les eaux superficielles de l'océan ; en retour le mouvement des masses d'eau transporte de grandes quantités de chaleur qui réchauffent à leur tour l'atmosphère, modifiant ainsi le régime des vents qui vont à leur tour entraîner l'océan. Les interactions de ce type, ou rétroactions, sont monnaie courante dans le système climatique ; elles engendrent les instabilités et les oscillations naturelles qui dominent le comportement du système.

Oscillations internes

Parmi les oscillations liées aux interactions océan-atmosphère, la plus connue est le phénomène portant les noms d'El Niño (pour sa partie océanique) et d'Oscillation Australe (pour sa partie atmosphérique). Pour aborder les mécanismes d'El Niño, il faut indiquer tout d'abord que la rotation terrestre impose une domination des vents alizés (c'est-à-dire des vents d'est) dans les tropiques : c'est l'existence des alizés qui assure que la Terre solide transmet par friction sa rotation à l'atmosphère. L'entraînement des eaux superficielles du Pacifique tropical vers l'ouest par les alizés conduit à une accumulation d'eaux chaudes (plus de 30°C) dans toute la partie ouest, et à des remontées d'eaux froides au voisinage des côtes du Pérou. L'énorme quantité d'énergie ainsi emmagasinée à l'ouest se transmet à l'atmosphère, et entretient au voisinage de l'Indonésie une activité convective intense. Il en résulte, comme nous l'avons vu plus haut, une circulation en rouleau dite circulation de Walker, avec des ascendances sur les eaux chaudes de l'ouest du Pacifique et des subsidences sur les eaux froides de l'est. L'établissement de cette circulation se traduit, dans sa branche basse, par un renforcement des alizés. Nous avons là un exemple de ces rétroactions qui conduisent à des oscillations propres du système. Dans les périodes d'intensification des alizés, le Pacifique oriental est très froid, la convection sur l'Indonésie très intense. Dans les périodes d'affaiblissement des alizés, la masse d'eau chaude superficielle reflue vers l'est, la convection quitte l'Indonésie pour le centre et l'est du Pacifique. Toute la circulation en rouleaux de la bande tropicale s'en trouve modifiée : on observe des sécheresses dramatiques dans certaines régions comme l'Indonésie ou l'Australie, et des pluies diluviennes sur d'autres comme le Pérou. Le schéma le plus simple de cette oscillation est un schéma unidimensionnel, dans lequel les constantes de temps de l'oscillation sont déterminées par la propagation longitudinale d'ondes équatoriales. La réalité est naturellement plus complexe, et met en jeu l'ensemble des interactions entre les circulations tridimensionnelles de l'atmosphère et de l'océan au voisinage du Pacifique équatorial. Ces phénomènes commencent d'ailleurs à être assez bien modélisés pour que l'on aborde le stade des prévisions expérimentales.

El Niño est une oscillation interannuelle, avec une pseudo-période de l'ordre de deux à quatre ans. Il existe aussi dans les tropiques des oscillations intrasaisonnières, dont les périodes sont de l'ordre de quelques décades ; elles sont caractérisées par la propagation d'amas convectifs vers l'est, de l'ouest de l'Océan Indien vers le Pacifique équatorial. Ces oscillations sont elles aussi liées aux interactions océan-atmosphère ; elles interagissent avec la mousson asiatique et avec El Niño, ce qui leur confère une importance particulière pour l'économie et pour la société, dans des régions où la population dépasse aujourd'hui les deux milliards d'individus.

Plus proches de nous, il faut citer l'Oscillation Nord-atlantique, qui se traduit par des modulations d'intensité du contraste entre les basses pressions d'Islande et les hautes pressions des Açores. Elle concerne plus particulièrement les conditions hivernales sur l'Europe, quand ces systèmes de hautes et basses pressions sont particulièrement actifs. Un anticyclone des Açores plus intense que la normale correspond à une ligne des tempêtes atteignant l'Europe du nord : le temps y est alors plus doux et humide, tandis qu'il fait anormalement sec et froid sur l'Europe du sud. C'est l'inverse quand l'anticyclone s'affaiblit : la ligne des tempêtes atteint plutôt l'Europe du sud, y apportant davantage de précipitations.

Une autre oscillation interne, à des échelles de temps beaucoup plus longues, est la possibilité de modulation de la circulation thermohaline, donc du flux de chaleur océanique et de la formation d'eau profonde dans l'Atlantique nord. La densification des eaux du surface dans la mer de Norvège et la mer du Labrador est sensible, par exemple, à l'apport d'eau douce par les précipitations et par les fleuves, ou encore, par la fonte partielle des glaciers ou des calottes glaciaires. Un réchauffement temporaire des moyennes et hautes latitudes boréales, en activant les précipitations et la fonte des glaces, tend normalement à faire baisser la salinité de l'Atlantique nord, donc à affaiblir la circulation thermohaline, ce qui entraîne un refroidissement de l'Atlantique nord et des régions continentales qui le bordent, plus particulièrement l'Europe. Nous avons encore ici la source d'oscillations possibles, qui pourraient intervenir dans un certains nombres de changements climatiques rapides du passé, comme le début de l'épisode du Dryas Récent, brusque récession vers le froid intervenue en quelques décennies au cours de la dernière déglaciation, il y a environ 13 000 ans, ou d'autres épisodes de la dernière glaciation connues sous le nom d'oscillations de Dansgaard-Oeschger. De tels épisodes pourraient se produire de la même manière lors d'un réchauffement climatique dû aux perturbations anthropiques actuelles. La vitesse de ces variations climatiques rapides semble avoir pu atteindre dans le passé des valeurs de l'ordre de 10°C en 50 ans ; c'est là un changement climatique intense à l'échelle d'une vie d'homme.

Oscillations forcées naturelles

Le système climatique nous apparaît donc comme un oscillateur assez complexe. Cet oscillateur a ses modes d'oscillation propres, dont nous venons de donner des exemples ; mais, bien sûr, il réagit aussi aux sollicitations externes.

Nous ne citerons que pour mémoire la dérive des continents qui, à l'échelle de quelques dizaines de millions d'années, change du tout au tout les climats régionaux et modifie même le climat global, par exemple en érigeant des montagnes, ou en limitant, voire en supprimant, la possibilités de formation de calottes glaciaires. Une Terre, par exemple, où les calottes arctiques et antarctiques seraient entièrement occupées par des océans ouverts ne connaîtrait sans doute pas de glaciations, les courants océaniques apportant suffisamment d'énergie jusqu'aux pôles.

À des échelles de temps moins longues, quelques dizaines de milliers d'années, la variabilité climatique a pour source principale les variations lentes de la distribution de l'insolation, due aux irrégularités du mouvement orbital de la Terre. Le mouvement de la Terre autour du soleil est en effet perturbé par l'attraction des autres planètes du système solaire. Il est possible, par des développements en série, de reconstituer ce mouvement de façon très précise sur des périodes de temps de quelques millions d'années. Les variations correspondantes de l'insolation sont entièrement définies par les variations dans le temps de trois paramètres : l' excentricité de l'ellipse, qui module le contraste entre une saison chaude globale où la Terre est proche du soleil, et une saison froide globale où elle est éloignée du soleil ; l' obliquité de l'équateur terrestre sur l'écliptique, qui module le contraste entre l'hémisphère d'été et l'hémisphère d'hiver ; et enfin, la précession, qui définit le déphasage entre la saison chaude globale et l'hiver ou l'été de l'un ou l'autre des deux hémisphères. L'excentricité varie entre 0 (cercle parfait) et 0,07, avec une période d'environ 100 000 ans. L'obliquité varie entre 22° et 25°, avec une période de 41 000 ans. La précession est un phénomène un peu plus compliqué : la précession astronomique est le mouvement de rotation de l'axe des pôles sur le cône de précession dont la période est 26 000 ans, auquel s'ajoute le mouvement de nutation ; mais pour arriver à ce que l'on appelle la précession climatique, c'est à dire à la phase des saisons le long de l'orbite, il faut aussi tenir compte de la rotation de l'orbite elle-même : d'où deux périodes principales de 19 000 ans et 23 000 ans.

Il est aujourd'hui universellement admis que les grandes variations du climat qui ont dominé les deux derniers millions d'années sont dues à ces variations orbitales et aux variations d'insolation qui en découlent. Les phénomènes les plus marquants sont les alternances d'époques glaciaires et interglaciaires, rythmés par la lente accumulation, puis la disparition relativement rapide d'énormes calottes de glace sur l'Amérique du Nord et le nord de l'Europe. Le dernier cycle glaciaire-interglaciaire a duré environ 120 000 ans. L'accumulation de glace sur les pôles est toujours lente, car il faut beaucoup de temps à l'atmosphère pour transporter de la vapeur d'eau en quantité suffisante aux hautes latitudes où l'air est froid et peu porteur d'humidité. Le retour à l'interglaciaire par fonte ou déstabilisation des calottes est beaucoup plus rapide. Nous nous situons aujourd'hui à la fin d'une période interglaciaire qui a débuté il y a environ 10 000 ans. Le dernier maximum glaciaire, c'est à dire l'époque où le climat a été le plus froid et où les calottes glaciaires ont atteint leur extension maximale, s'est produit il y a environ 20 000 ans. À cette époque, le Canada et le nord des États-Unis étaient recouverts par plus de trois kilomètres et demi de glace, et le nord de l'Europe et de la Russie, par plus de deux kilomètres de glace ! La température moyenne du globe était de cinq à six degrés plus basse qu'aujourd'hui, et les pôles étaient plus froids d'environ dix degrés. Juste après le retour à l'interglaciaire, il y a six à dix mille ans, le climat était légèrement plus chaud qu'aujourd'hui : la précession était telle que la Terre était proche du soleil durant l'été boréal (c'est le contraire actuellement) : les étés de l'hémisphère nord étaient donc plus chauds, les moussons africaines et asiatiques étaient plus intenses et pénétraient plus au nord dans les deux continents : le sud de ce qui est aujourd'hui le désert saharien était relativement verdoyant et peuplé d'animaux et de pasteurs, comme le rappellent les fresques du Tassili.

Nous disposons sur les quatre derniers cycles glaciaires-interglaciaires, c'est à dire sur les quatre cent ou cinq cent mille dernières années, de ces véritables archives de l'évolution du climat que sont les calottes glaciaires et les sédiments marins ou lacustres, que l'on explore par carottage, stratigraphie, analyse isotopique et analyse chimique. La teneur des glaces, par exemple, en isotopes lourds de l'oxygène et de l'hydrogène nous renseigne sur l'histoire du cycle de l'eau (marquée lors de l'évaporation par des fractionnements isotopiques), donc sur les températures, les précipitations et le niveau des mers, qui, il y a 20 000 ans, à l'époque des grandes calottes glaciaires, était 120 mètres en dessous du niveau actuel (on allait à pied sec de France en Angleterre, et de l'Asie continentale jusqu'à Java et Bornéo). Les fines bulles d'air prisonnières de la glace nous permettent de retrouver la composition chimique de l'air (en particulier sa teneur en gaz à effet de serre : dioxyde de carbone et méthane) au moment où la glace s'est formée, jusqu'à il y a plusieurs centaines de milliers d'années.

Ce que nous disent ces archives et les modélisations que l'on peut faire de l'évolution du climat sur ces périodes de temps, c'est que le système climatique se comporte comme un amplificateur des impulsions orbitales, grâce aux multiples rétroactions dues par exemple au cycle de l'eau : la formation de calottes glaciaires et l'accroissement du manteau neigeux, en renvoyant davantage d'énergie solaire vers l'espace, intensifient le refroidissement ; ou encore, dues au dioxyde de carbone et au méthane : la teneur de ces gaz dépend de l'activité biologique et diminue lors des baisses d'insolation, avec pour conséquence un affaiblissement de l'effet de serre et donc un refroidissement supplémentaire.

Une autre cause naturelle, externe, de variations climatiques, est l'activité même du soleil. La « dynamo » solaire est modulée par des cycles de 22 ans ; la luminosité varie, elle, suivant des cycles de 11 ans, car elle ne dépend pas du signe du champ magnétique. Les périodes d'activité maximale du soleil se manifestent par la multiplication de taches solaires (surcompensées par des facules ou plages extrêmement brillantes). Nous disposons d'observations quantitatives de l'évolution de l'activité solaire depuis la fondation de l'Observatoire de Paris dans la deuxième moitié du XVIIe siècle (apparition, disparition, nombre de taches, variations du diamètre du soleil qui varie en raison inverse de son activité). Nous savons ainsi que la deuxième moitié du XVIIe siècle a été une période d'activité solaire particulièrement faible, allant jusqu'à une disparition totale des taches durant des périodes de plusieurs années. Aujourd'hui, des radiomètres à cavité, embarqués sur des plate-formes spatiales, mesurent ces variations avec une grande précision en s'affranchissant des perturbations dues à l'absorption par l'atmosphère. Dans un cycle de 11 ans actuel, la luminosité solaire varie d'environ un Watt m-2 (sur une valeur moyenne d'environ 1368 Watts m-2) : ces modulations sont donc très faibles et ne peuvent donner lieu à des effets climatiques importants, d'autant plus que 11 ans est une durée trop brève pour perturber l'inertie thermique de l'océan.

On sait toutefois que l'activité solaire est modulée par des cycles plus longs que le cycle de 11 ans ; le plus court est le cycle de Gleisberg (environ 80 ans). Ces cycles peuvent avoir des influences climatiques plus fortes. Néanmoins, nous ne disposons pas encore de véritables modèles tridimensionnels de la dynamo solaire et nous ne savons pas reconstruire très précisément les variations de la luminosité au cours des derniers siècles. Des modèles simplifiés ont permis d'estimer la baisse de puissance du soleil au XVIIesiècle, époque dite du minimum de Maunder, à environ 0,4 %, ce qui donne une diminution du flux solaire absorbé d'environ un Watt par mètre carré pendant au moins un demi-siècle. Cette époque semble avoir été particulièrement froide, comme en témoignent les canaux gelés des peintures hollandaises, et diverses archives climatiques (notamment la dendroclimatologie qui étudie les variations de la croissance passée des arbres et les relie aux variations de température et de pluviosité). Néanmoins, nous ne sommes pas sûrs que le refroidissement observé, qu'on a appelé assez suggestivement « petit âge glaciaire », ait été un phénomène réellement global ; il pourrait bien s'être en fait limité à l'Europe.

Perturbations anthropiques

Nous nous étendrons peu ici sur les conséquences climatiques de l'effet de serre anthropique, dû à l'injection dans l'atmosphère de produits de la combustion et d'autres activités humaines : celles-ci font l'objet d'un autre exposé dans cette même série. On notera seulement qu'il faut toujours replacer ces effets, avec leurs propres constantes de temps (de quelques décennies à plusieurs siècles) dans le cadre des variations naturelles du climat, auxquelles elles se superposent et avec lesquelles elles peuvent interagir. Par exemple, nous nous dirigeons aujourd'hui naturellement vers une nouvelle glaciation qui devrait se développer progressivement dans les 100 000 ans qui viennent. Certaines études montrent que la modification de cette évolution naturelle par le réchauffement climatique dû aux hommes pourrait perdurer sur plusieurs milliers d'années.

Revenons au présent ou à un avenir plus proche. L'effet de serre n'est pas, et de loin, la seule perturbation d'origine anthropique. Les divers types de combustion, dont les sociétés modernes font un si grand usage, injectent aussi dans l'atmosphère, à doses plus ou moins grandes, des pollutions visibles sous forme d'aérosols, petites particules en suspension dans l'air, à base de carbone suie, de carbone organique, de dioxyde de soufre, etc. Beaucoup de ces particules ont des tailles de l'ordre des longueurs d'onde du rayonnement solaire : elles interceptent une partie de ce rayonnement et l'empêchent d'atteindre la surface, soit en le renvoyant vers l'espace, soit en l'absorbant : dans une atmosphère très polluée, la couche d'aérosols peut être assez dense pour masquer complètement le soleil un jour de beau temps. À l'opposite de l'effet de serre, les aérosols tendent ainsi à refroidir la surface, et donc le climat. Le fait que certains aérosols, les aérosols soufrés, sont hygroscopiques les rend aptes à jouer en plus le rôle de noyaux de condensation : à quantité donnée de vapeur d'eau, la présence d'une grande quantité d'aérosols soufrés multiplie donc le nombre de gouttelettes ; les gouttelettes qui se forment sont plus petites, elles se forment donc en plus grandes quantités et restent en suspension plus longtemps : un même volume de gouttes d'eau offre ainsi une surface réfléchissante plus grande et plus persistante. Cet effet refroidisseur supplémentaire est ce que l'on appelle l'effet indirect des aérosols soufrés.

Contrairement aux gaz à effet de serre, les aérosols ont une durée de vie courte. Ceux dont la durée de vie est la plus longue sont les aérosols stratosphériques naturels, injectés dans la stratosphère par les grandes éruptions volcaniques tropicales comme récemment, El Chichon ou le Pinatubo : ils sédimentent lentement et leur rôle de refroidisseur n'excède pas deux ou trois ans. Les aérosols soulevés par le vent dans les déserts, et les aérosols anthropiques restent pour l'essentiel dans les basses couches et la plus grande partie (notamment les aérosols soufrés) sont lessivés rapidement par les pluies. Leur durée de vie est de l'ordre d'une semaine, leurs panaches ont une extension limitée, contrairement au CO2, par exemple, qui est très bien mélangé dans l'ensemble de l'atmosphère. Néanmoins, ces panaches peuvent affecter notablement les climats régionaux. Pendant l'hiver 1999, la campagne INDOEX a étudié le panache issu de l'Inde et de l'Asie du Sud, qui, poussé par les vents de nord-est, s'étale de décembre à mars sur tout le nord de l'Océan Indien, jusqu'à la ligne des grands systèmes convectifs située vers 5 à 10°S, où la plupart sont lessivés. Le contraste est impressionnant, entre l'atmosphère lourdement polluée au nord de cette ligne convective, et l'atmosphère très pure située au sud. INDOEX a montré que ces pollutions régionales modifiaient fortement le bilan radiatif à la surface, créant des déficits d'énergie à la surface de la mer de l'ordre d'une vingtaine de Watts par mètre carré ; ceci doit entraîner des perturbations notables de l'interaction océan-atmosphère, en particulier des déficits d'évaporation pouvant influencer les précipitations dans des endroits très éloignés. Certaines études ont montré que de même, pendant l'été, la pollution émise sur le sous-continent indien influençait négativement les précipitations de mousson, parce qu'elle limite l'excédent énergétique à la surface qui est le véritable moteur de la saison des pluies. Le problème est évidemment que la pollution, comme l'effet de serre, est directement liée au développement et à l'explosion démographique. Les effets climatiques étudiés par INDOEX ne pourront que croître très fortement dans les décennies à venir, même si des mesures anti-pollution commencent à être mises en Suvre.

Enfin, on ne peut pas parler des perturbations climatiques liées à l'activité humaine sans évoquer, au moins brièvement, l'évolution du climat du Sahel. Les années soixante-dix ont été marquées par une baisse catastrophique des précipitations dans la bande sahélienne. Cette évolution fut vraisemblablement due, en partie à des causes naturelles, en partie à des causes anthropiques.

Les causes naturelles peuvent être rapportées aux interactions océan-atmosphère. On a vu que les précipitations tropicales (la saison des pluies) étaient liées aux branches ascendantes des circulations en rouleaux. Celles-ci se développent au dessus des continents, là où l'énergie solaire reçue est maximale, et, au dessus des océans, là où la température de la mer est particulièrement élevée. On conçoit que ces deux mécanismes puissent interférer, et qu'une anomalie d'eau chaude sur l'océan, en créant de nouvelles ascendances et de nouvelles subsidences, puisse accentuer ou limiter les ascendances continentales. C'est ce qui se produit avec El Niño, qui entraîne des sécheresses sur l'Indonésie, l'Australie, le Mozambique et le Nordeste brésilien, ainsi que des moussons généralement médiocres sur l'Inde. De même, il existe de fortes corrélations entre certaines anomalies de température océanique, et les sécheresses sahéliennes. Ceci dit, la région continentale où les pluies sont les mieux corrélées aux températures de l'océan semble bien être le Nordeste brésilien, qui réagit à la fois, aux oscillations El Niño-La Niña à l'ouest, et aux oscillations nord-sud des températures de l'Atlantique tropical, à l'est. Les modèles de circulation générale de l'atmosphère simulent très bien ce genre de relations.

Mais pour en revenir au Sahel, le comportement des hommes semble aussi avoir joué son rôle. La destruction de la végétation par le surpâturage conduit à une augmentation de la réflectivité de la surface, et donc à une moindre absorption de l'énergie solaire. De là, comme nous l'avons déjà expliqué, un affaiblissement de la saison des pluies, qui renforce la tendance à la désertification : on retrouve ici encore, une de ces rétroactions qui rendent le système climatique si sensible aux perturbations externes. D'une façon beaucoup plus générale, il est clair que le développement de nos civilisations s'est toujours accompagné de déforestation intensive liée aux pratiques agricoles, à la navigation ou à la construction : dans l'antiquité, tout le pourtour de la Méditerranée ; au Moyen Âge, l'Europe ; au siècle dernier, l'Amérique du Nord ; l'Inde aussi au cours des siècles passés ; et aujourd'hui, l'ensemble des forêts équatoriales, de l'Indonésie à l'Amazonie en passant par l'Afrique. L'évolution des climats n'a certes pas été insensible à toutes ces perturbations.

 

 VIDEO     canal U       LIEN

TOUT L'UNIVERS DANS UN ATOME

Il y a 22 jours

Tout lunivers dans un atome
Gerardus t Hooft

Dans cet exposé, je vais expliquer que lunivers gigantesque dans lequel nous vivons abrite un nombre incroyable de minuscules univers : les atomes. Ils présentent une structure extrêmement riche qui a permis aux physiciens dexercer leur sagacité durant tout le siècle précédent. Le sujet de cet exposé est cet univers microscopique que lon trouve à lintérieur des atomes mais il est intimement relié à lunivers macroscopique qui nous est rendu plus familier par les images des médias comme celle de la conquête spatiale.

Au début nexistait quun point, et rien dautre que ce point. Il y a plus de 13 milliards dannées, ce point explosa, marquant le début de lunivers tout entier. Depuis ce moment, lunivers est régi par les lois de la physique. Lors de ses premiers instants, il évolua extrêmement rapidement. Des choses complexes arrivèrent alors, que lon comprend difficilement.

La première lumière de lunivers, que lon observe maintenant, est apparue 380 000 ans après cette explosion. Ce nest quun milliard dannées plus tard que lunivers commence à ressembler à ce quil est aujourdhui : un univers constitué détoiles, situées à lintérieur de galaxies séloignant les unes des autres.

Deux choses remarquables caractérisent lunivers. La première, cest quil est presque vide : il existe de grands espaces désertiques entre les étoiles et les galaxies, de telle sorte quen moyenne, lunivers présente une densité de quelques atomes seulement par kilomètre cube. La deuxième, cest que tous les objets de lunivers obéissent aux lois de la physique de manière extrêmement précise. Des expériences de toutes sortes, ainsi que des calculs complexes établissent une chose qui nétait pas évidente a priori : les lois de la physique semblent partout les mêmes, peu importe la direction dans laquelle on observe lunivers. Lune de ces lois est celle de la gravitation. Cest elle qui fait que les planètes décrivent autour du soleil des ellipses presque parfaites. Elle implique également que les planètes accélèrent à proximité du soleil et décélèrent quand elles sen éloignent. Il sagit dune loi parmi dautres mais dont les effets sont clairement visibles.

Lunivers compte un nombre démesurément grand datomes et dans ces mondes minuscules que sont les atomes, on trouve des objets, les électrons, qui se déplacent selon des lois physiques ressemblant beaucoup à celles régissant le mouvement des planètes autour du soleil. Les électrons tournent autour dun objet central que lon appelle le noyau atomique. Latome constitue ainsi un univers à lui tout seul, mais avec des dimensions minuscules.

La structure de latome

Dire quun atome peut être assimilé à un système planétaire serait en fait mentir. Latome est gouverné par des lois beaucoup plus complexes, celles de la mécanique quantique. Celle-ci dit quen moyenne, les électrons se déplacent selon des orbites elliptiques ; mais cela en moyenne seulement. Leur mouvement est en fait aléatoire, il semble incontrôlé. Autour dun noyau, certaines régions sont dépeuplées délectrons alors que dautres en fourmillent. Ce sont les lois de la mécanique quantique qui permettent de faire la distinction entre ces régions.

Latome possède une autre caractéristique qui le rapproche de lunivers : il est quasiment vide. En effet, le noyau atomique est environ 100 000 fois plus petit que les orbites des électrons, ce qui rend latome beaucoup plus vide en réalité quun système planétaire. Cest ce noyau, dont lunité de taille est le Fermi, 10-15 m, qui est la partie la plus intéressante et la plus complexe de latome.

Il y a plusieurs décennies, les physiciens découvrirent que le noyau atomique est constitué de deux sortes dobjets : les protons et les neutrons. Les premiers sont électriquement chargés alors que les seconds sont neutres, mais hormis cette différence, ces deux objets sont similaires. Ce qui a été découvert plus récemment dans lhistoire de la physique des particules est quils sont tous les deux constitués de trois sous-unités appelées quarks. Ces derniers obéissent à des lois très particulières qui seront évoquées plus loin.

Il y a 35 ans lexistence des quarks était à peine vérifiée. On ne comprenait pas leur comportement, ni pourquoi protons et neutrons étaient constitués de trois dentre eux. Toutes les particules observées à lépoque étaient cependant regroupées en plusieurs classes, de la même façon quen biologie les espèces danimaux et de plantes sont classées en familles. Il existait une distinction entre les leptons, particules insensibles à ce qui fut appelé plus tard la force forte, et les hadrons, qui y étaient sensibles et avaient donc un comportement totalement différent. Les hadrons furent ensuite séparés entre mésons et baryons. Enfin, il existait une troisième sorte de particules, les photons, qui avec leur comportement radicalement différent des autres, constituaient une famille à eux seuls.

Les leptons, dont on connaissait deux représentants à lépoque, électrons et muons, peuvent être chargés électriquement, le plus souvent de manière négative, ou bien être neutres : on les appelle alors neutrinos. De manière générale, les particules sont caractérisées par leur charge électrique ainsi que par leur spin, propriété liée à leur rotation. Elles sont également accompagnées de leurs « contraires », si lon peut dire, leurs antiparticules. Il existe ainsi des antileptons et des antibaryons. Les mésons, eux, sont identiques à leurs antiparticules.

Beaucoup de questions émergent de cette classification : Comment peut-on expliquer le comportement de toutes ces particules ? Comment peut-on les décrire ? Enfin, comment sagencent-elles pour former les atomes ? Pour répondre à ces questions, il a été nécessaire de les étudier.

Les outils pour étudier la structure de latome

Pour étudier les atomes, il a été nécessaire de construire de très grandes machines, les accélérateurs de particules. Lun deux est situé à la frontière de la Suisse et de la France, près de Genève. Sil nétait pas situé sous terre, parfois à cent mètres de profondeur, dun avion on pourrait constater quil a la forme dun cercle de 26 km de circonférence. Il sagit dun circuit que des particules parcourent chacune dans un sens opposé pour se heurter de plein fouet. Les investigations des physiciens concernent ce qui se déroule lors de telles collisions. Cette machine appelée LEP, pour Large Electron-Positron Collider, a été démontée il y a quelques années pour être remplacée par une autre machine, le LHC, acronyme pour Large Hadron Collider. La première a intensivement étudié les leptons, comme lélectron et son antiparticule, alors que la nouvelle génération daccélérateurs étudiera les hadrons. Les physiciens doivent cependant attendre encore plusieurs années avant de recevoir les premiers résultats du LHC, prévus en 2007.

La photographie (fig.1) représente un des nombreux détecteurs de particules utilisés dans les accélérateurs. Comparés à la taille dun homme, ces objets sont particulièrement grands. Ceci est une source de questionnement pour les néophytes : pourquoi nutilise-t-on pas de petits détecteurs pour étudier des particules si minuscules ? Ny gagnerait-on pas en résolution ? Il se trouve que non. Pour bien voir de petits objets, il faut de grosses machines. Par exemple, on pourrait penser que les insectes, avec leurs petits yeux, se voient très bien. Cest tout le contraire. Nous voyons beaucoup mieux les insectes quils ne se voient eux-mêmes, car nos yeux sont beaucoup plus gros que les leurs. Cest pour cela que les insectes ont des antennes, comblant ainsi leur déficit sensoriel. Ainsi, former des images de minuscules particules nécessite dénormes appareils. Les physiciens, qui cherchent à sonder la matière le plus profondément possible, doivent par conséquent construire les machines les plus imposantes qui soient& tout en respectant un certain budget.

figure 1
Les forces dinteractions et les particules de Yang-Mills

Revenons encore trente cinq ans en arrière. A cette époque, il fallait comprendre leurs interactions pour pouvoir décrire les particules & Quelles soient déviées, crées ou annihilées, les physiciens ont réuni tous ces phénomènes dans le concept de force. Ils ont ainsi découvert que trois sortes de forces totalement différentes agissaient sur les noyaux atomiques. Lune delles est assez familière, il sagit de lélectromagnétisme. Cest la force qui est utilisée de manière prédominante dans les microphones et les télévisions. Les uns utilisent la force électromagnétique pour amplifier la voix, les autres pour créer une image sur lécran. De manière plus simple, on peut voir leffet de cette force quand un aimant se déplace à proximité dun autre aimant, ou dun objet en fer. Ou bien même quand on se coiffe par temps sec et que les cheveux sélectrisent. Il existe également deux autres forces actives dans le domaine des particules élémentaires : la force forte et la force faible. On connaissait peu de leurs propriétés il y a 35 ans, et par bien des aspects, elles restaient énigmatiques : comment affectent-elles le comportement des particules ?

Il est très difficile de répondre à cette question. On savait quelles devaient obéir à la fois à la théorie de la relativité dEinstein et aux lois de la mécanique quantique. Mais ces lois sont complexes, et il est très difficile de les réconcilier pour que les mouvements observés des particules respectent ces deux théories fondamentales. Ce nest quen 1954 quune avancée fut effectuée. Deux physiciens américains, Robert-Mills, étudiant à lépoque et Chen Ning Yang, futur prix Nobel, proposèrent ensemble une façon de décrire les particules subatomiques. Leur réflexion fut la suivante : certaines forces de la nature sont déjà connues, les forces électromagnétiques ; peut-on imaginer une nouvelle force, quelque chose de plus général que lélectricité et le magnétisme, quon pourrait décrire avec des équations similaires et qui serait cohérente avec les connaissances acquises par ailleurs en physique ? Ils trouvèrent une réponse à cette question mais ils se rendirent compte très tôt quelle était probablement erronée. Beaucoup de physiciens avaient eu des idées similaires mais les avaient rejetées car ils ne leur trouvaient aucun sens. Peut-être navaient-t-elles aucun sens mais elles étaient tellement belles quils publièrent néanmoins leurs travaux, malgré les critiques de leurs pairs, laissant aux autres le soin de sinquiéter du fait quelles naient rien de réel.

Quont-ils donc inventé qui allait devenir si important, seulement quelques décennies plus tard ? Yang et Mills imaginèrent quil existait un autre champ, ressemblant beaucoup aux champs électriques et magnétiques, mais qui en serait également différent par certains aspects : une particule évoluant dans un tel champ changerait didentité. Au passage, rappelons que lidentité est une caractéristique essentielle des particules : la modifier a dénormes conséquences sur leur comportement. Un champ électromagnétique naltère pas cette identité, mais Yang et Mills imaginèrent quune particule puisse transmuter en une autre quand elle traverserait le champ quils ont décrit. Un proton, par exemple, deviendrait neutron. Le point fondamental est que deux particules initialement identiques pourraient ainsi devenir différentes.

 

  VIDEO       CANAL  U         LIEN

La musique pour soigner la mémoire

il y a un mois

Grâce aux travaux des neurosciences, on sait aujourd'hui que l'exposition à la musique a des effets positifs sur la mémoire, notamment chez les personnes atteintes d'Alzheimer. Le point sur les dernières découvertes, à l'occasion de la 2e édition de la Semaine de la mémoire à Caen et à Bordeaux.
La musique aurait-elle ce pouvoir extraordinaire de s’enraciner profondément dans notre mémoire et de réactiver des capacités cognitives qu’on croyait perdues à jamais ? Dans les institutions qui accueillent les malades d’Alzheimer, il est fréquent de voir des patients entonner avec une vitalité inattendue La Java bleue et autres chansons apprises dans leur jeunesse, alors qu’ils ne se souviennent plus de leur prénom. Dans le même registre, les cliniciens ont depuis longtemps constaté que certaines personnes victimes d’accident vasculaire cérébral (AVC) atteintes d’aphasie (troubles de la parole) étaient capables de fredonner les paroles de leurs chansons favorites sans difficulté d’élocution ou encore que des patients atteints par la maladie de Parkinson parvenaient à se déplacer lorsqu’ils synchronisaient leur marche sur un rythme ou un tempo musical. Comment expliquer ce phénomène ?

Le son traité de manière automatique par le cerveau

« Lorsque la musique nous parvient, précise Emmanuel Bigand1, professeur de psychologie cognitive à l’université de Bourgogne et directeur du Laboratoire d’études de l’apprentissage et du développement2, notre cerveau l’interprète à une vitesse de 250 millièmes de seconde, au cours de laquelle se joue une véritable symphonie neuronale. » Concrètement, le son est d’abord traité par le système auditif, puis interviennent différentes aires cérébrales impliquées dans la mémoire, les émotions, la motricité (la musique nous donne envie de battre du pied), le langage… sans compter l’activation des circuits neuronaux de la récompense (production de la dopamine) lorsque nous écoutons une musique plaisante.

Musicothérapie et Alzheimer Le son est d’abord traité par le système auditif (en rouge sur cette IRM), puis par les aires cérébrales impliquées dans la mémoire, les émotions, la motricité (la musique nous donne envie de battre du pied), ou encore le langage.

La musique est traitée par notre cerveau de manière automatique, sur un mode involontaire, et stockée dans notre mémoire « implicite ». « Beaucoup de nos connaissances et de nos représentations musicales sont acquises par exposition naturelle, précise Emmanuel Bigand. Bien avant de naître, le bébé mémorise les œuvres musicales et est capable de les reconnaître un an après sa naissance, sans les avoir réentendues. À l’autre extrémité de la vie, même lorsque les activités linguistiques disparaissent, notamment aux stades avancés de la maladie d’Alzheimer, la musique reste accessible. Non seulement, elle redonne le goût de communiquer, de sourire et de chanter, mais elle parvient à réveiller la mémoire et les événements qui lui sont associés. »

La mémoire
musicale active les
deux hémisphères,
notamment la
région de Broca :
celle du langage.


Hervé Platel3, professeur de neuropsychologie à l’université de Caen, est l’un des premiers chercheurs, dans les années 1990, à avoir observé le cerveau exposé à la musique. Grâce à l’imagerie par résonance magnétique (IRM), il a identifié les réseaux du cerveau impliqués dans la perception et la mémoire musicale. Jusqu’alors, et de manière empirique, on considérait que le cerveau gauche était celui du langage (notamment l’aire de Broca et de Wernicke) et le droit, celui de la musique, or c’est plus compliqué que cela.

La mémoire musicale partage ainsi avec celle des mots des zones de l’hémisphère gauche qui permet notamment de nommer le nom de l’œuvre musicale, alors que l’hémisphère droit assure l’analyse perceptive (on reconnaît une mélodie). « Cette spécificité confère à la mémoire musicale, une supériorité par rapport à la mémoire verbale, détaille le chercheur. Lorsqu’un malade présente une lésion à l’hémisphère gauche (langage), les aires homologues droites ne compensent généralement pas ce déficit. En revanche, le malade pourra généralement toujours percevoir, mémoriser la musique (sans la nommer) et en retirer du plaisir. »

Une persistance étonnante chez les malades d’Alzheimer

Cette persistance de la mémoire musicale s’observe particulièrement chez les malades d’Alzheimer, y compris dans les situations d’apprentissage. Des travaux réalisés par l’équipe d’Hervé Platel, en collaboration avec le docteur Odile Letortu, médecin dans l’unité Alzheimer de la maison de retraite Les Pervenches (Calvados), ont en effet montré que des patients (cas modérés et sévères de la maladie) a priori incapables de mémoriser une nouvelle information réussissaient à apprendre des chansons nouvelles (d’une dizaine de lignes) en moins de huit semaines (huit séances d’une heure tente). Et fait encore plus étonnant : certains d’entre eux s’en souvenaient et pouvaient entonner les mélodies quatre mois après l’arrêt de l’atelier.

Ces résultats ont conduit les chercheurs caennais à répliquer l’expérience. Ils ont fait écouter à des malades de nouveaux extraits musicaux et verbaux (poèmes et livres audio) pendant huit jours (à raison d’une fois par jour). Et, une fois encore, ont constaté que « les malades éprouvaient un sentiment de familiarité avec les mélodies écoutées deux mois et demi plus tôt, détaille le chercheur. En revanche, ils ne gardaient plus aucun souvenir des poèmes et des histoires entendus, ce qui confirme l’étonnant pouvoir de la musique à s’inscrire durablement dans le cerveau ».

Musicothérapie et Alzheimer Des patients atteints de la maladie d'Alzheimer, a priori incapables de mémoriser une nouvelle information, réussissent à apprendre des chansons nouvelles.

Une étude incluant un groupe de 40 malades d’Alzheimer (stades modérés et sévères) et un groupe de 20 patients appareillés est en cours pour identifier les aires impliquées dans l’acquisition de nouvelles informations. « La question qui se pose, s’interroge Hervé Platel, qui pilote cette recherche avec la chercheuse Mathilde Groussard, est de savoir si cette capacité d’apprentissage est liée aux zones cérébrales qui fonctionnent encore ou à un circuit de mémoire alternatif qui prendrait le relais. »

La musique contre le vieillissement cérébral

Quoi qu’il en soit, la mise en évidence de ces étonnantes aptitudes musicales chez les patients atteints par la maladie d’Alzheimer a favorisé la mise en place de nouvelles méthodes de prises en charge. Certaines structures d’accueil proposent désormais des dispositifs fondés sur la familiarisation comme l’utilisation d’une mélodie chantée familière pour aider à la ritualisation de l’activité toilette, ou la mise en place de bornes de musique spécifique à chaque salle d’activité afin d’aider les patients à se repérer dans l’espace et dans le temps.

Les sujets âgés
ayant une pratique
musicale de
quelques années
ont moins
de risque de
développer une
maladie neuro-
dégénérative.


Mais pour autant, peut-on parler d’effets thérapeutiques ? De nombreux travaux indiquent que, en cas de lésions cérébrales, la sollicitation des aires cérébrales impliquées dans le traitement de la musique avait un effet positif sur les aptitudes cognitives (attention, mémoire, traitement du langage) et contribuait à favoriser la plasticité cérébrale. « La répétition de stimuli musicaux contribue à favoriser les échanges d’informations entre les deux hémisphères et à augmenter le nombre de neurones qui assure cette communication, ce qui a pour effet de modifier la structure du cerveau. Chez les musiciens, ces modifications se traduisent par des changements visibles, sur le plan anatomique par exemple : une plus forte densité du corps calleux (réseau de fibres qui relient les deux hémisphères) par rapport aux non-musiciens », note Emmanuel Bigand.

En 2010, Hervé Platel et Mathilde Groussard ont pour la première fois mis en évidence l’effet de la pratique musicale sur la mémoire. Ils ont observé chez les musiciens une plus forte concentration de neurones dans l’hippocampe, région des processus mnésiques.

« Ce résultat confirme que la pratique de la musique stimule les circuits neuronaux de la mémoire et suggère qu’elle permettrait de contrer efficacement les effets du vieillissement cérébral. Plusieurs études ont ainsi montré que les sujets âgés ayant une pratique musicale de quelques années ont moins de risque de développer une maladie neurodégénérative », souligne le chercheur.

Des bénéfices à tous les âges

De même, la musique a des effets sur les aphasies (perte de l’usage de la parole) majoritairement consécutives aux AVC. En 2008, l’équipe de Teppo Sarkamo, du Centre de recherche sur le cerveau, à Helsinki, en Finlande, mettait en évidence les effets de récupération du fonctionnement cognitif et émotionnel de l’écoute musicale chez les victimes d’AVC.

Des travaux similaires ont lieu actuellement au CHU de Dijon sur l’impact d’une stimulation musicale précoce chez les patients touchés par un AVC. « Les premières observations montrent non seulement que les patients éprouvent du plaisir à écouter des musiques qui leur rappellent des souvenirs, mais qu’ils se mettent spontanément à fredonner ces mélodies, explique Emmanuel Bigand, qui pilote cette recherche. Cette réaction pourrait faciliter la réorganisation fonctionnelle indispensable à la restauration des compétences linguistiques. »

Alors devrions-nous tous écouter de la musique en boucle, chanter ou pratiquer un instrument pour stimuler notre cerveau et l’aider à lutter contre le vieillissement ? « Cela ne fait aucun doute », répondent de concert les chercheurs. « Les bénéfices sur le fonctionnement cognitif global du cerveau peuvent être observés à tous les âges, y compris chez les personnes âgées qui débutent tardivement la musique », précise Emmanuel Bigand, qui milite pour que, au même titre que le sport, la musique soit enseignée dès le plus jeune âge.

À lire aussi sur notre site : "Dans la tête de Dory, le poisson amnésique"

La Semaine de la mémoire, du 19 au 25 septembre 2016, à Caen (link is external) et à Bordeaux et sa région (link is external)
Une semaine en compagnie de chercheurs venus du monde entier pour partager les recherches et les découvertes sur la mémoire auprès du grand public.



Notes
1. Il a coordonné l’ouvrage Le Cerveau mélomane, paru en 2014 aux éditions Belin.
2. Unité CNRS/Univ. de Bourgogne.
3. Chercheur au laboratoire Neuropsychologie et imagerie de la mémoire (Inserm/EPHE/Unicaen), à l’université de Caen. Il est coauteur avec Francis Eustache et Bernard Lechevalier de l’ouvrage Le Cerveau musicien, paru en 2010 aux éditions De Boeck.

DOCUMENT cnrs LIEN

HEIDEGGER, L’ART, LA TECHNIQUE (PAR JEAN-FRANÇOIS COURTINE)

il y a un mois

HEIDEGGER, L’ART, LA TECHNIQUE (PAR JEAN-FRANÇOIS COURTINE)


Conférence de Jean-François Courtine
Heidegger, l’art, la technique
Résumé de la première séance
(lundi 3 février 2014)

Dans cette première séance, il s’est agi de montrer en quoi la pensée de Heidegger sur l'essence de la technique était redevable  aux deux essais de Ernst Jünger sur la « totale Mobilmachung » (La Mobilisation totale 1930, traduit par Marc Buhot de Launay dans L'État universel,  TEL, Gallimard, 1990) et sur la figure du travailleur (Le Travailleur, 1932, traduit par Julien Hervier, Christian Bourgois, 1989). Ces essais témoignent de l'acuité du regard de l'écrivain allemand sur le monde moderne dominé par la technique. Jünger – alors auteur connu pour ses célèbres récits de guerre, Les orages d'acier, Le Boqueteau 125 etc. – y met en lumière certains traits de la technique moderne qu’il analyse sous l’angle de la « mobilisation du monde par la figure du Travailleur ». Cette « figure » (all. die Gestalt) du « Travailleur » (all. der Arbeiter) est à concevoir comme un nouveau type humain propre à l'époque moderne. C’est un type universel qui ne saurait être rapporté à une classe sociale au sens où l’entendait Marx (et les courants de pensée qui s’en réclament auxquels Jünger s’opposait). La figure du « Travailleur » serait plutôt, ainsi que devait le remarquer Heidegger plus tard, « une sobre dénomination de ce que Nietzsche appelle le surhomme » [GA 90, p. 257]. 
Quoi qu’il en soit, pour Jünger, le formidable bouleversement qui s’était accompli avec la Grande Guerre exigeait un nouveau regard, une nouvelle manière de voir clair dans ce qui est. Avec la guerre industrielle et totale, c’est le « caractère de puissance inhérent à la technique » qui se serait dévoilé. Jünger aborde ce phénomène de la technique moderne en en excluant « tout élément économique  ou progressiste » (Le Travailleur, p. 207). Ce processus dynamique de la « mobilisation totale » sous la figure du « Travailleur » a encore pour caractéristique d’échapper à tout contrôle et pour conséquence de  transformer le monde d'un côté en un « gigantesque chantier perpétuel » et de l'autre en « un musée » (ibid. p.253). Dans cette perspective, une mobilité sans limites (ni dans le temps, ni dans l’espace) et un incessant affairement organisationnel créent « un mode de vie [qui] ressemble […] à une course mortelle où il faut bander toutes ses énergies pour ne pas rester sur le carreau » (ibid. p.223).
Dans  un deuxième temps, on s’est efforcé de montrer en quoi la réflexion heideggérienne sur la technique se distinguait de celle de Jünger [1]. On a ainsi rappelé que, mu par la relecture/réinterprétation de l’œuvre de Nietzsche et par ses analyse du "nihilisme" comme trait de l'époque contemporaine,  Heidegger avait articulé certains aspects de la description de Jünger  à sa propre conception de l'histoire de la métaphysique entendue comme « histoire de l'être » (Seinsgeschichte). Il a alors été question plus particulièrement d’un "concept" clé de la réflexion de Heidegger, celui de la Machenschaft  – un mot qu’on rend d’ordinaire par "machination", "manœuvre", "manigance", mais qui désigne dans le contexte le "règne de l'efficience", de la "faisabilité". Le mot est formé à partir du verbe allemand machen "faire".   
La Machenschaft préfigure et annonce, dans le cheminement heideggérien, le fameux Gestell – "dispositif d'arraisonnement" ou "dispositif", autre « Grundwort » (terme fondamental) qui désigne, à partir de la fin des années 1940, « l'essence de la technique » (das Wesen der Technik). Dans cette dernière expression, il faut souligner que Wesen (essence) ne doit pas être compris de la  manière abstraite et anhistorique qui est traditionnellement associée à la notion d’essence ou d’essentia. Au contraire, dans l’usage qu’en fait Heidegger, Wesen doit être entendu comme ce qui porte, de manière sous-jacente et immédiatement inapparente, le déploiement du phénomène auquel il est associé (ici la technique) et ce dans une temporalité spécifique, en l’occurrence celle de l'être, temporalité qui diffère de la conscience historique que les hommes en ont. 
Cette analyse de la Machenschaft a été esquissée en fin de séance à partir de la lecture du début du § 61 des Beiträge zur Philosophie (traduit en français récemment sous le titre: Apports à la Philosophie, cf. texte 1 de l'exemplier distribué). L'accent a été mis sur un paradoxe tout à fait surprenant : ce qui étend son règne sans partage aujourd'hui, à savoir le déferlement planétaire de la toute puissance de la technique (et les types de rapports au monde et à ce qui est qui en est induit), aurait son noyau germinatif dans une « décision » [2] de la philosophie grecque, décision qui se lit dans les œuvres de Platon et d’Aristote [3] réinterprétées en la circonstance (non sans une certaine violence herméneutique) par Heidegger. Cette « décision » aurait tenu dans le fait de penser la « nature » (en grec, la phusis, φύσις) à l'horizon de la technè (« le « savoir faire », « l’art » gr. τέχνη) comme « fabriquer », comme « faire humain ». Ce moment  originaire de la Machenschaft aurait constitué le premier temps d’une Entmachtung de la phusis (comprendre « d’une "dépotentialisation" », « de l'évidement du pouvoir de la nature », de son « émasculation », pourrait-on presque dire en forçant le trait). Cette Entmachtung de la nature ne se peut comprendre que relativement à la conception de la phusis qui, selon Heidegger, prédominait chez les premiers penseurs grecs avant donc Platon et Aristote. Chez ces penseurs qualifiés significativement par Aristote de « physiologues », (oi phusiologoi = « ceux qui parlent de et à partir de la nature »), dominait la représentation d’une phusis sur-puissante  (übermächtig) à ce point que toute pensée (noein, νοεῖν) et toute parole (logos, λόγος) étaient éprouvées comme appartenant au déploiement essentiel de la phusis (exemplier, texte n°3).

En contrepoint, on peut aussi se faire une idée de la « surpuissance » de la nature en prenant la mesure de la violence et du pouvoir propres de la technè qui y répond en relisant avec les lunettes de Heidegger (et de Hölderlin – cf. GA 40, p.168, texte 5 de l'exemplier, v. aussi le cours sur « L’Ister » GA 53, été 1942)  le premier Stasimon (« chant » qu’exécutait le chœur dans la Tragédie antique) de l’Antigone de Sophocle. Heidegger commente en effet « τὸ μηχανόεν τέχνας [...] ἔων » des v. 364-365 en s’appuyant sur ce terme de Machenschaft qu’il comprend en un sens « non péjoratif » comme ce « qui s’annonce à nous dans le mot grec τέχνη », lequel est un « savoir [Wissen] » qui « consiste à pouvoir “mettre-en-œuvre” l’être au titre d'un étant à chaque fois tel et tel ». À ce stade, la puissance ou le pouvoir violent de la τέχνη ne dégénère pas encore en puissance sans mesure, en violence déchainée ou en sauvagerie barbare.  C’est en ce point que se noue le lien entre la réflexion sur la Machenschaft et la τέχνη  d’un côté et la pensée  heideggérienne de l'œuvre d'art de l’autre.Ce serait donc dans ce premier pas encore imperceptible, dans ce  “premier commencement” que, de manière “destinale”, se serait  amorcé ce qui ne se réalisera pleinement que bien plus tard comme accomplissement de la métaphysique : le règne de l’essence de la technique moderne. Cet empire de la Machenschaft, devenu celui du Gestell, s’atteste notamment dans le fait que, pour l'homme contemporain, il n'y a plus d'objets, autrement dit plus de choses qui lui font face (en allemand, Gegenstände). L’homme arraisonné par le Dispositif a affaire désormais à des choses qu’il a toujours déjà prises en vue comme fonds ou  stock disponible  (en allemand, Bestände) : « Ce qui se tient au sens du fonds disponible [Bestand]  ne se tient plus en nous faisant face comme objet [Gegenstand] [GA 7, 17- Essais et conférences,  « La question de la technique », p. 23]. La sur-puissance initiale de la nature, vidée de sa puissance propre (l’Entmachtung) est, au terme du processus, supplantée par la “puissance de sommation” du Gestell. Cette puissance n’est pas le fait de quelques uns (les « chefs » ou tous ceux qui croient pouvoir en contrôler le déchaînement). Le danger qui menace essentiellement l’homme est qu'il n’atteigne pas son propre  (ni dans son agir, ni dans sa parole, ni dans rapport aux choses) et soit exproprié de son être.

 

 VIDEO       CANAL  U         LIEN

Projection du son la supériorité des Stradivarius remise en question

il y a un mois


Paris, 8 mai 2017
Projection du son : la supériorité des Stradivarius remise en question

Des chercheurs de l'Institut Jean Le Rond d'Alembert (CNRS/UPMC) ont montré que les violons récents ont une meilleure projection du son1 que les violons fabriqués par le célèbre luthier Antonio Stradivarius. Cette étude, publiée dans la revue PNAS le 8 mai 2017, révèle également qu'en dépit du prestige de ces anciens violons italiens, les auditeurs préfèrent le son produit par les instruments récents et ne peuvent différencier les deux catégories de violons.
La projection du son est la capacité d'un instrument à remplir l'espace lors d'un concert, à porter jusqu'au fond d'une salle ou à passer au-dessus d'un orchestre. Elle est particulièrement  importante par les solistes. La projection des violons italiens des XVIIe et XVIIIe siècles, et notamment celle des Stradivarius, est souvent considérée comme supérieure à celle des violons plus récents. L'équipe de recherche dont fait partie Claudia Fritz, chercheuse CNRS à l'Institut Jean Le Rond d'Alembert (CNRS/UPMC)2, en collaboration avec le luthier américain Joseph Curtin, a donc voulu vérifier cette supériorité présumée lors de deux expériences ayant fait appel à 137 auditeurs : 55 dans un auditorium à Paris, 82 dans une salle de concert newyorkaise. Les auditeurs devaient juger neuf paires de violons - constituées d'un violon ancien et d'un violon récent3 – suivant deux critères : la préférence personnelle et la projection sonore. Afin de ne pas influencer les jugements, les expériences ont été menées en double aveugle, en dissimulant la nature de chaque instrument aux violonistes et au public.

Les résultats de l'étude montrent qu'en moyenne, les auditeurs préfèrent les violons récents aux Stradivarius et trouvent qu'ils projettent davantage. De plus, à l'instar des violonistes, l'auditoire ne parvient pas à distinguer systématiquement les deux types de violons. Deux études menées en aveugle par la même équipe, en 2010 et en 2012, avaient en effet montré que les violonistes préféraient les instruments récents aux célèbres violons italiens, en étant toutefois incapables de les différencier.

Cette étude révèle que, contrairement aux idées reçues, les solistes auraient intérêt à privilégier les violons récents pour leurs concours, leurs auditions et leurs concerts, à condition que la provenance de leur instrument reste inconnue du jury et des auditeurs. Par ailleurs, inciter les violonistes à effectuer des tests en aveugle leur permettrait de porter leur choix sur un instrument sans être influencés par le prestige associé à un célèbre nom de luthier.

 

  DOCUMENT       cnrs        LIEN

Nous sommes plus que notre ADN découverte d'un nouveau mécanisme d'hérédité épigénétique

il y a un mois

Paris, 24 avril 2017
 

Nous sommes plus que notre ADN : découverte d'un nouveau mécanisme d'hérédité épigénétique

 

L'équipe de Giacomo Cavalli, à l'Institut de génétique humaine de Montpellier (Université de Montpellier/CNRS), en collaboration avec l'Inra1, démontre chez la drosophile l'existence d'une hérédité épigénétique2 transgénérationnelle. En modifiant de façon transitoire la fonction des protéines du groupe Polycomb, dont l'activité est essentielle au cours du développement, ils ont obtenu des lignées de drosophile porteuses de la même séquence d'ADN mais caractérisées par des yeux de couleurs différentes. Ces différences dépendent d'un degré variable de répression par les protéines Polycomb qui est hérité de façon stable mais réversible. Cette hérédité épigénétique s'applique aussi bien à des lignées transgéniques qu'à des lignées naturelles et peut être modifiée par des changements de conditions environnementales, comme la température ambiante. Ces résultats sont publiés dans la revue Nature Genetics, le 24 avril 2017.
Elles ont toutes le même ADN mais des caractères bien différents : des chercheurs ont obtenu des lignées de drosophiles aux yeux blancs, jaunes ou rouges, en perturbant de façon transitoire des interactions entre des gènes cibles des protéines Polycomb, des complexes protéiques impliqués dans la répression de nombreux gènes, notamment des gènes de développement. 

Les informations nécessaires au fonctionnement des cellules ne sont pas toutes portées par le matériel génétique. D'autres paramètres, transmis de façon héréditaire mais non codés par les gènes d'un individu, pilotent la vie des cellules. Ces facteurs dits épigénétiques sont un étiquetage chimique et une organisation spatiale bien définie de notre génome. Ils correspondent en particulier aux modifications des histones, les protéines autour desquelles l'ADN s'enroule. Les protéines du groupe Polycomb, elles, sont impliquées dans la définition de l'architecture tridimensionnelle des chromosomes, qu'elles régulent en établissant des interactions entre gènes dans l'espace 3D du noyau cellulaire. Or, selon la position d'un gène à un moment donné, son expression sera activée ou réprimée.

En perturbant de façon transitoire ces interactions, les chercheurs ont pu établir des lignées de drosophiles caractérisées par des niveaux différentiels de répression ou d'activation génique dépendant des Polycomb. Les chercheurs ont séquencé le génome entier de chaque lignée de drosophiles, afin de vérifier que leur ADN soit bien identique. Malgré l'identité de leurs séquences d'ADN, ces lignées peuvent être maintenues indéfiniment et transmettent fidèlement leurs différences phénotypiques une fois établies. Ce phénomène peut être réversible : en croisant ces individus aux gènes surexprimés ou sous exprimés avec des drosophiles n'ayant pas de modifications, il est possible d'induire un retour à la normal de la couleur des yeux sans changer la séquence d'ADN, ce qui démontre le caractère épigénétique de cette forme d'héritage.
 
Les chercheurs ont ensuite pu montrer que la modification des conditions environnementales, notamment la température ambiante3, peut affecter l'expression de l'information épigénétique sur plusieurs générations, sans pour autant effacer sa transmission. Cette influence transitoire de l'environnement dans lequel ont vécu les générations précédentes sur l'expression des traits des insectes confère à ce mécanisme épigénétique des propriétés évolutives uniques. La pertinence du phénomène dans la nature a de plus été confirmée par des études en microcosme menées en collaboration avec l'Inra.

L'équipe de Giacomo Cavalli démontre ainsi l'existence d'un héritage épigénétique transgénérationnel stable, dépendant de la structure tridimensionnelle des chromosomes et régulé par les facteurs Polycomb. Ces résultats ouvrent de nouvelles perspectives pour les sciences biomédicales. Ils suggèrent notamment que l'épigénétique pourrait expliquer en partie le mystère de « l'hérédité manquante », c'est-à-dire l'incapacité de trouver les causes génétiques de certains caractères héréditaires normaux ainsi que de nombreuses pathologies humaines.

 

 DOCUMENT       cnrs        LIEN

Imiter les virus pour livrer des médicaments au coeur des cellules

il y a un mois


Paris, 27 août 2015
Imiter les virus pour livrer des médicaments au coeur des cellules

Les virus ont une aptitude à détourner le fonctionnement des cellules pour les infecter. En s'inspirant de leur mode d'action, des chercheurs du CNRS et de l'Université de Strasbourg ont conçu un « virus chimique » capable de franchir la double couche de lipides qui délimite les cellules, puis de se désagréger dans le milieu intracellulaire afin d'y libérer des molécules actives. Pour cela, ils ont utilisé deux polymères de leur conception, qui ont notamment des capacités d'auto-assemblage ou de dissociation selon les conditions. Ces travaux, fruit d'une collaboration entre chimistes, biologistes et biophysiciens, sont publiés dans l'édition du 1er septembre de la revue Angewandte Chemie International Edition.
Les progrès biotechnologiques donnent accès à un trésor de molécules ayant un potentiel thérapeutique. Beaucoup de ces molécules sont actives uniquement à l'intérieur des cellules humaines et restent inutilisables car la membrane lipidique qui délimite les cellules est une barrière qu'elles ne peuvent pas franchir. L'enjeu est donc de trouver des solutions de transfert aptes à traverser cette barrière. 

En imitant la capacité des virus à pénétrer dans les cellules, des chimistes du Laboratoire de conception et application de molécules bioactives (CNRS/Université de Strasbourg) cherchent à concevoir des particules à même de libérer des macromolécules actives uniquement au sein des cellules. Pour cela, ces particules doivent obéir à plusieurs contraintes souvent contradictoires. Elles doivent être stables dans le milieu extracellulaire, capables de se lier aux cellules afin d'être internalisées mais être plus fragiles à l'intérieur des cellules pour libérer leur contenu. Avec deux polymères de leur conception, les chercheurs ont réussi à construire un "virus chimique" remplissant les conditions nécessaires pour transférer directement des protéines actives dans la cellule.

Concrètement, le premier polymère (pGi-Ni2+) sert de support aux protéines, qui s'y fixent. Le second polymère (πPEI), récemment breveté, encapsule cet ensemble grâce à ses charges positives qui se lient aux charges négatives du pGi-Ni2+. Les particules obtenues (30-40 nanomètres de diamètre) sont capables de reconnaitre la membrane entourant les cellules et de s'y lier. Cette liaison active une réponse cellulaire : la nanoparticule est enveloppée par un fragment de membrane et entre dans un compartiment intracellulaire appelé endosome. Alors qu'ils étaient stables à l'extérieur de la cellule, les assemblages sont ébranlés par l'acidité qui règne dans ce nouvel environnement. Par ailleurs, cette baisse de pH permet au polymère πPEI de faire éclater l'endosome, ce qui libère son contenu en molécules actives. 

Grâce à cet assemblage, les chercheurs ont pu concentrer suffisamment de protéines actives à l'intérieur des cellules pour obtenir un effet biologique notable. Ainsi, en transférant une protéine appelée caspase 3 dans des lignées de cellules cancéreuses, ils ont réussi à induire 80 % de mort cellulaire1. 

Les résultats in vitro sont encourageants, d'autant que ce "virus chimique" ne devient toxique qu'à une dose dix fois supérieure à celle utilisée dans cette étude. Par ailleurs, des résultats préliminaires chez la souris ne font pas état de surmortalité. L'élimination par l'organisme des deux polymères reste cependant une question ouverte. La prochaine étape consistera à tester ce système de manière approfondie in vivo, chez l'animal. A court terme, ce système servira d'outil de recherche pour vectoriser2 dans les cellules des protéines recombinantes et/ou chimiquement modifiées. A long terme, ce travail pourrait ouvrir le champ d'application des protéines pharmaceutiques à des cibles intracellulaires et contribuer à la mise au point de médicaments novateurs. 

Ces travaux ont été rendus possibles par la collaboration de biophysiciens et de biologistes. Les compétences en cryomicroscopie électronique de l'Institut de génétique et de biologie moléculaire et cellulaire (CNRS/Université de Strasbourg/Inserm) et l'expertise en microscopie à force atomique du Laboratoire de biophotonique et pharmacologie (CNRS/Université de Strasbourg) ont permis de caractériser les assemblages moléculaires de manière très précise. Le laboratoire Biotechnologie et signalisation cellulaire (CNRS/Université de Strasbourg) a quant à lui fourni les protéines recombinantes encapsulées dans le virus artificiel.

 

 DOCUMENT         CNRS         LIEN

L'observation de l'anxiété, pour la première fois chez un invertébré, ouvre une nouvelle voie d'étude

il y a 2 mois

Paris, 13 Juin 2014
L'observation de l'anxiété, pour la première fois chez un invertébré, ouvre une nouvelle voie d'étude

Pour la première fois, des chercheurs du CNRS et de l'université de Bordeaux viennent de produire et d'observer un comportement d'anxiété chez l'écrevisse, qui disparaît lorsqu'on lui injecte une dose d'anxiolytiques. Ces travaux, publiés dans Science le 13 juin 2014, montrent que les mécanismes neuronaux liés à l'anxiété se sont conservés tout au long de l'évolution. L'analyse de ce comportement ancestral chez un modèle animal simple révèle, en outre, une nouvelle voie pour l'étude des bases neuronales de cette émotion.
L'anxiété peut être définie comme une réponse comportementale au stress consistant en une appréhension durable des événements à venir. Elle prépare les individus à détecter les menaces et à les anticiper de façon adaptée. Elle favorise donc leur survie. Cependant, lorsque le stress est chronique, l'anxiété devient pathologique et peut conduire à un état dépressif. 

Jusqu'à présent l'anxiété non pathologique n'avait été décrite que chez l'homme et quelques vertébrés. Pour la première fois, elle est observée chez un invertébré. Pour y parvenir, les chercheurs de l'Institut de neurosciences cognitives et intégratives d'Aquitaine (CNRS/université de Bordeaux) et de l'Institut des maladies neurodégénératives (CNRS/ université de Bordeaux) ont d'abord exposé les écrevisses à un champ électrique de façon répétée durant trente minutes. Ensuite, ils ont placé les écrevisses dans un labyrinthe aquatique en forme de croix. Deux des bras étaient éclairés, ce qui naturellement rebute les écrevisses, et deux étaient dans l'obscurité, ce qui, au contraire, les rassure. 

Les chercheurs ont alors analysé le comportement exploratoire des écrevisses. Les écrevisses rendues anxieuses ont eu tendance à rester dans les parties sombres du labyrinthe, contrairement aux écrevisses témoin, qui ont exploré l'ensemble du labyrinthe. Ce comportement est une réponse adaptative au stress subi : l'animal cherche à minimiser les risques de rencontrer un agresseur. Cet état émotionnel s'est estompé au bout d'une heure environ. 

L'anxiété des écrevisses est corrélée à un accroissement de la concentration de sérotonine dans leur cerveau. Ce neurotransmetteur est impliqué dans de nombreuses régulations physiologiques tant chez les invertébrés que chez l'homme. Elle est libérée dans des contextes de stress et régule plusieurs réponses liées à l'anxiété, comme l'augmentation des taux de glucose dans le sang. Les chercheurs ont aussi montré qu'en injectant un anxiolytique d'usage courant chez l'humain (benzodiazépine), le comportement d'évitement de l'écrevisse est aboli. Ceci montre à quel point les mécanismes neuronaux permettant d'établir ou d'inhiber le comportement anxieux sont apparus tôt dans l'évolution et se sont bien conservés au cours du temps. 

Ces travaux offrent aux chercheurs qui étudient le stress  et  l'anxiété, un modèle animal unique. Dotée d'un système nerveux simple dont les neurones sont faciles à enregistrer, l'écrevisse pourrait permettre de mieux comprendre les mécanismes neuronaux en œuvre dans un contexte stressant, ainsi que le rôle de neurotransmetteurs tels que la sérotonine ou le GABA. A présent, l'équipe veut étudier l'anxiété chez l'écrevisse soumise à un stress social et analyser les changements neuronaux qui s'opèrent lorsque l'anxiété se prolonge sur plusieurs jours. 

 

 DOCUMENT         cnrs        LIEN  

LASER

il y a 2 mois

Des nanofibres pour une conversion efficace de la longueur d’onde d’un laser
18 juillet 2013
Laser , fibre optique , LCF - UMR 8501 , nanofibre , diffusion Raman , non linéaire

Des physiciens viennent de démontrer la conversion de longueur d’onde d’un faisceau vert en un faisceau rouge par diffusion Raman stimulée avec une efficacité de 50% en le faisant traverser une nanofibre de silice baignant dans de l’éthanol.


 
Les processus d’optique non linéaire mis en œuvre pour convertir la longueur d’onde d’un faisceau lumineux requièrent de faire traverser des matériaux spécifiques par un faisceau intense. En concentrant la lumière dans leur cœur sur de grandes distances, les fibres optiques sont potentiellement très bien adaptées à ces processus, mais de nombreux matériaux utilisés pour l’optique non linéaire ne peuvent pas constituer de fibre. Des physiciens du laboratoire Charles Fabry (CNRS/IOGS) et de l’Université de Hangzhou (Chine) viennent de montrer que l’on peut contourner cette difficulté en plaçant le matériau non linéaire autour d’une fibre optique de diamètre nanométrique. Le faisceau lumineux canalisé par cette fibre se trouve en fait essentiellement hors du cœur de silice et interagit donc efficacement avec le milieu non linéaire qui l’entoure. Un rendement de près de 50% a ainsi été obtenu pour la conversion Raman d’un faisceau laser vert traversant de l’éthanol, sur une distance 10 fois plus faible qu’avec une fibre creuse contenant l’éthanol en son cœur. Ce travail est publié dans le Journal of the European Optical Society Rapid Publication.

Les physiciens ont développé une « plateforme d’étirage de fibres » pour étirer les fibres optiques de silice de même type que celles employées dans les réseaux de communication. Cet étirement de la fibre s’accompagne d’un affinement, le diamètre est réduit d’un facteur supérieur à 100, passant des 125 µm de la fibre d’origine à quelques centaines de nanomètres, cela sur une longueur pouvant atteindre 10 centimètres. La nanofibre obtenue se trouve entre deux sections de fibres standard de 125 µm d’un maniement particulièrement aisé pour injecter et récupérer la lumière. Le passage de la fibre standard à la nanofibre s’effectue sans perte et s’accompagne d’un très fort accroissement de l’intensité lumineuse lié à la réduction du diamètre. Bien que le diamètre de la nanofibre soit considérablement plus faible que la longueur d’onde de la lumière, le guidage persiste, mais une partie significative de l’énergie optique se propage hors de la silice et donc dans le milieu qui baigne cette dernière. Après une première expérience utilisant l’éthanol comme milieu non linéaire, les physiciens ont utilisé du toluène dilué dans de l’éthanol. Ils ont alors observé une cascade Raman : le faisceau initial à 532 nm excite le premier ordre Stokes du toluène à 562 nm qui excite à son tour le second ordre Stokes du toluène à 596 nm. Ces premières démonstrations ouvrent la voie à un vaste éventail de nouvelles expériences en optique non linéaire.

 

 DOCUMENT         cnrs        LIEN 

Invasion des insectes l'économie mondiale affectée

il y a 2 mois

Paris, 4 octobre 2016
Invasion des insectes : l'économie mondiale affectée

69 milliards d'euros, c'est le coût minimal annuel des dégâts provoqués par les insectes envahissants dans le monde, estime une équipe internationale de chercheurs menée par Franck Courchamp, directeur de recherche CNRS au laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech) et impliquant notamment les entomologistes de l'IRD à Montpellier et un économiste CNRS. Depuis les dégâts sur les biens et services jusqu'aux coûts en santé, en passant par les pertes en agriculture, cette étude, réalisée avec le soutien de l'ANR et de la Fondation BNP Paribas, rassemble la plus importante base de données jamais élaborée des dégâts économiques imputables aux insectes envahissants dans le monde : 737 articles, livres et rapports ont été considérés. Ces travaux sont publiés dans Nature Communications le 4 octobre 2016.
Pourquoi étudier les insectes ? Depuis des milliers d'années, les insectes ont été responsables de la propagation de maladies chez l'Homme et le bétail, et de dégâts considérables, depuis l'anéantissement des cultures et réserves, en passant par la destruction des infrastructures, jusqu'à la dévastation des forêts, altérant ainsi les écosystèmes et les rendant plus fragiles. Dans le règne vivant, la seule classe des insectes (environ 2,5 millions d'espèces) est probablement le groupe le plus coûteux. De plus, ils font partie des espèces envahissantes les plus virulentes : 87 % des 2 500 invertébrés terrestres ayant colonisé de nouveaux territoires sont des insectes.

Des dégâts sous-évalués

Les scientifiques ont estimé à 69 milliards d'euros par an le coût minimal des dégâts causés par les insectes envahissants dans le monde. Parmi les d'insectes étudiés, le termite de Formose1 (Coptotermes formosanus) serait l'un des plus destructeurs : plus de 26,7 milliards d'euros par an dans le monde. Mais cette estimation provient d'une étude trop peu documentée, selon l'équipe de recherche. Des études plus renseignées (estimées reproductibles par les scientifiques) placent également « en haut du classement » la teigne des choux2 (Plutella xylostella), avec un coût de 4,1 milliards d'euros par an et le longicorne brun de l'épinette3 (Tetropium fuscum), avec un coût de 4 milliards d'euros par an rien qu'au Canada.

Par ailleurs, d'après cette étude, l'Amérique du Nord présente les plus importantes pertes financières avec 24,5 milliards d'euros par an, tandis que l'Europe n'est pour l'instant qu'à 3,2 milliards d'euros par an. Mais cette différence s'explique par un manque de sources d'évaluation et non par une réelle différence d'exposition au danger. Ainsi, selon les chercheurs, le coût annuel total estimé de 69 milliards d'euros est largement sous-évalué. De nombreuses régions du monde n'offrent pas assez de données économiques pour produire une estimation précise, qui a donc été minimisée. De plus, l'équipe de chercheurs s'est concentrée sur l'étude des dix espèces invasives les plus coûteuses, sans comptabiliser celles, très nombreuses, qui provoquent moins de dégâts. Enfin, si l'on considère les valeurs estimées pour les services écosystémiques à l'échelle globale (plusieurs centaines de milliards de dollars pour la seule pollinisation des cultures), les perturbations causées par les insectes envahissants pourraient atteindre un niveau bien au-delà de l'estimation actuelle. 

La santé et l'agriculture sont les plus touchées

Les insectes dans leur ensemble pèsent particulièrement sur l'agriculture en consommant 40 % des biens de consommation (l'équivalent de ce qui pourrait nourrir un milliard d'êtres humains).

Sur la santé, le coût global attribuable aux insectes envahissants dépasse 6,1 milliards d'euros par an (sans prendre en compte le paludisme, le virus Zika, ou encore l'impact économique provoqué sur certains facteurs comme le tourisme, la productivité, etc). D'un point de vue géographique, les régions du monde où les dépenses médicales liées aux dégâts causés par les insectes envahissants s'avèrent les plus importantes, sont respectivement l'Asie (2,55 milliards d'euros par an), l'Amérique du Nord (1,85 milliards d'euros par an) et l'ensemble de l'Amérique centrale et du Sud (1,66 milliards d'euros par an). Et, parmi les maladies les plus lourdes financièrement, on trouve au premier plan la dengue, dont les dépenses représentent 84 % des 6,1 milliards d'euros.

Une plus grande vigilance et la mise en place de procédures de réponse à une invasion biologique permettraient de faire économiser à la société des dizaines de milliards d'euros, selon les auteurs. Ces mesures de prévention pourraient diviser au moins par dix les coûts des maladies provoquées par les moustiques.

Laboratoires français impliqués :

laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech)
Laboratoire montpelliérain d'économie théorique et appliquée (CNRS/ Université de Montpellier/Inra)
laboratoire Maladies infectieuses et vecteurs : écologie, génétique, évolution et contrôle (CNRS/IRD/Université de Montpellier)
laboratoire Biologie des organismes et écosystèmes aquatiques (CNRS/MNHN/IRD/UPMC/Université Caen Normandie) 

 

  DOCUMENT         cnrs        LIEN  

SUPRACONDUCTIVITÉ

il y a 2 mois


supraconductivité

Phénomène présenté par certains métaux, alliages ou céramiques dont la résistivité électrique devient pratiquement nulle au-dessous d'une certaine température (appelée température critique).
image: http://www.larousse.fr/encyclopedie/data/animations/1101059-Supraconducteur.jpg
Supraconducteur
Supraconducteur
Découverte en 1911, la supraconductivité apparaît dans certains métaux ou alliages refroidis à très basse température : 7,2 K (− 266 °C) pour le plomb et 1,17 K (− 272 °C) pour l'aluminium. Ses propriétés exceptionnelles (en particulier une résistance électrique nulle) sont le reflet d'un nouvel état de la matière dont les propriétés quantiques se révèlent à notre échelle.
La compréhension de la supraconductivité a fait appel aux connaissances expérimentales et théoriques de la physique quantique acquises jusqu'au milieu des années 1950 pour aboutir, en 1957, au modèle BCS, du nom de ses inventeurs : J. Bardeen, L. Cooper et J. Schrieffer. Ce modèle, qui leur a valu le prix Nobel en 1972, a été bâti en deux étapes.
Dans un premier temps, ils établirent l'existence d'une interaction attractive entre les électrons libres d'un métal, ceux participant à la conduction électrique, alors que ces électrons, porteurs d'une charge négative, auraient dû normalement se repousser. L'observation du changement de la température critique, température à laquelle se manifeste la supraconductivité, d'échantillons ne différant que par leur composition isotopique mit en évidence le rôle des ions du réseau. Un électron se déplaçant dans le réseau cristallin attire les ions sur son passage et crée ainsi dans son sillage un excès de charge positive auquel un autre électron sera sensible. Ce mécanisme se traduit par une attraction effective entre les deux électrons, qui, dans un matériau favorable, peut dominer la répulsion électrostatique.
Cette observation n'a pris tout son sens que dans la deuxième étape, quand il est apparu que toute attraction entre les électrons libres déstabilise l'état fondamental d'un métal. Il en résulte l'apparition d'un nouvel état du « gaz électronique », qui n'est plus alors formé d'électrons individuels obéissant à la statistique de Fermi-Dirac (fermions) mais de paires d'électrons, les paires de Cooper, régies par la statistique de Bose-Einstein (bosons). Ces nouvelles propriétés statistiques entraînent la condensation de toutes les paires de Cooper en un état quantique unique qui se traduit par les propriétés supraconductrices.
Dans un métal normal, les impuretés et les vibrations du réseau cristallin sont autant d'obstacles qui freinent le mouvement des électrons individuels transportant le courant électrique et créent ainsi une résistance non nulle. Dans un supraconducteur, ces mêmes obstacles ne suffisent plus à freiner l'ensemble cohérent des paires d'électrons, dont le mouvement est intimement dépendant du mouvement de toutes les autres. Une résistance électrique rigoureusement nulle, et donc un transport sans perte d'un courant électrique continu, en est la conséquence.

 

 DOCUMENT    larousse.fr    LIEN

 

SUPRACONDUCTIVITÉ

il y a 2 mois


supraconductivité

Phénomène présenté par certains métaux, alliages ou céramiques dont la résistivité électrique devient pratiquement nulle au-dessous d'une certaine température (appelée température critique).
image: http://www.larousse.fr/encyclopedie/data/animations/1101059-Supraconducteur.jpg
Supraconducteur
Supraconducteur
Découverte en 1911, la supraconductivité apparaît dans certains métaux ou alliages refroidis à très basse température : 7,2 K (− 266 °C) pour le plomb et 1,17 K (− 272 °C) pour l'aluminium. Ses propriétés exceptionnelles (en particulier une résistance électrique nulle) sont le reflet d'un nouvel état de la matière dont les propriétés quantiques se révèlent à notre échelle.
La compréhension de la supraconductivité a fait appel aux connaissances expérimentales et théoriques de la physique quantique acquises jusqu'au milieu des années 1950 pour aboutir, en 1957, au modèle BCS, du nom de ses inventeurs : J. Bardeen, L. Cooper et J. Schrieffer. Ce modèle, qui leur a valu le prix Nobel en 1972, a été bâti en deux étapes.
Dans un premier temps, ils établirent l'existence d'une interaction attractive entre les électrons libres d'un métal, ceux participant à la conduction électrique, alors que ces électrons, porteurs d'une charge négative, auraient dû normalement se repousser. L'observation du changement de la température critique, température à laquelle se manifeste la supraconductivité, d'échantillons ne différant que par leur composition isotopique mit en évidence le rôle des ions du réseau. Un électron se déplaçant dans le réseau cristallin attire les ions sur son passage et crée ainsi dans son sillage un excès de charge positive auquel un autre électron sera sensible. Ce mécanisme se traduit par une attraction effective entre les deux électrons, qui, dans un matériau favorable, peut dominer la répulsion électrostatique.
Cette observation n'a pris tout son sens que dans la deuxième étape, quand il est apparu que toute attraction entre les électrons libres déstabilise l'état fondamental d'un métal. Il en résulte l'apparition d'un nouvel état du « gaz électronique », qui n'est plus alors formé d'électrons individuels obéissant à la statistique de Fermi-Dirac (fermions) mais de paires d'électrons, les paires de Cooper, régies par la statistique de Bose-Einstein (bosons). Ces nouvelles propriétés statistiques entraînent la condensation de toutes les paires de Cooper en un état quantique unique qui se traduit par les propriétés supraconductrices.
Dans un métal normal, les impuretés et les vibrations du réseau cristallin sont autant d'obstacles qui freinent le mouvement des électrons individuels transportant le courant électrique et créent ainsi une résistance non nulle. Dans un supraconducteur, ces mêmes obstacles ne suffisent plus à freiner l'ensemble cohérent des paires d'électrons, dont le mouvement est intimement dépendant du mouvement de toutes les autres. Une résistance électrique rigoureusement nulle, et donc un transport sans perte d'un courant électrique continu, en est la conséquence.

 

 DOCUMENT    larousse.fr    LIEN

 

SUPRACONDUCTEUR

il y a 3 mois

Plan
supraconducteur
Propriétés
Matériaux supraconducteurs
Applications
Plan
supraconducteur
Consulter aussi dans le dictionnaire : supraconducteur
Matériau qui présente le phénomène de supraconduction.
Propriétés


Les supraconducteurs de type I excluent tout champ magnétique et possèdent un faible champ magnétique critique au-delà duquel ils reviennent à l'état normal. Au contraire, ceux de type II laissent un champ magnétique extérieur les pénétrer partiellement sous forme de petits tubes de flux magnétique, les vortex. La densité de courant maximale admissible (ou courant critique) dépend étroitement du comportement magnétique du matériau puisqu'il est soumis au champ créé par le courant qu'il transporte. En pratique, ce sont les supraconducteurs de type II, plus souples, qui possèdent les meilleures caractéristiques, c'est-à-dire les valeurs les plus élevées de température de champ et de courant critiques, ce qui leur ouvre le vaste domaine de la production de champs magnétiques intenses.
Matériaux supraconducteurs

Les plus couramment utilisés sont, d'une part, des alliages ductiles comme l'alliage niobium-zirconium (NbZr) et surtout niobium-titane (NbTi), d'autre part, des composés intermétalliques tels que niobium-étain (Nb3Sn), qui ont de meilleures caractéristiques supraconductrices mais présentent l'inconvénient d'être cassants.
Les premiers matériaux supraconducteurs à haute température critique (35 K), des oxydes de cuivre et de terres rares (céramiques), n'ont été découverts qu'en 1986. Les auteurs de cette découverte, révolutionnaire pour la supraconductivité, J. G. Bednorz et K. A. Müller, ont reçu dès 1987 le prix Nobel de physique. En quelques mois, plusieurs équipes découvrent de nombreux composés analogues, de température critique souvent plus élevée encore. En 1993, deux équipes françaises élaborent des matériaux présentant certains des critères de supraconductivité à des températures proches des températures ambiantes ; l'une, à l'École supérieure de physique et de chimie industrielles de la Ville de Paris (E.S.P.C.I.), obtient une température critique (résistance nulle) de − 23 °C ; l'autre, au C.N.R.S. à Grenoble, observe du diamagnétisme à des températures variant de − 63 °C à + 7 °C.
Ces composés complexes forment une classe originale : ce sont des oxydes, assez mauvais conducteurs à température ambiante. Leur structure cristalline est de type lamellaire et leurs propriétés physiques sont fortement anisotropes. Par ailleurs, le mécanisme conduisant à la supraconductivité dans ces céramiques est toujours débattu.
Plus récemment, ont été mises en évidence les propriétés supraconductrices à haute température critique (117 K) des fullerènes de formule C60 (sous champ électrique). On a aussi découvert que le diborure de magnésium MgB2 devient supraconducteur à 39 K. Ce matériau présente l'avantage de pouvoir laisser passer de forts courants électriques ; par ailleurs, sa chimie et sa mise en forme sont nettement plus faciles à maîtriser que celles des céramiques supraconductrices.
Applications

Les supraconducteurs à champ élevé sont principalement utilisés en physique des hautes énergies, notamment pour les accélérateurs de particules, les anneaux de stockage, le confinement magnétique des plasmas pour la fusion nucléaire (installations du type tokamak). En électrotechnique, divers prototypes ont été étudiés pour le transport et la production d'énergie électrique : lignes, transformateurs, moteurs et générateurs. Des filtres micro-ondes à supraconducteurs sont utilisés dans les réseaux de télécommunications mobiles et les radars. Comme on obtient aisément, de façon industrielle, une température de 77 K grâce à l'azote liquide, l'obstacle des basses températures, soumis à l'utilisation de l'hélium liquide, a disparu pour les applications à grande échelle de la supraconductivité. Cependant, la recherche et le développement nécessaires sont en cours et les domaines qui déboucheront sur des applications sont difficiles à déterminer. On cite l'obtention de champs magnétiques intenses (de plusieurs centaines de teslas) utilisables dans les transports, par exemple avec les projets de trains à sustentation magnétique. Des connexions sans pertes dans les ordinateurs sont aussi envisagées. Ces applications supposent d'abord que ces composés, obtenus sous forme de grains, puissent être transformés en fils ou déposés en couche mince, technique qui n'en est encore qu'à ses débuts.

 

 DOCUMENT    larousse.fr    LIEN

 

 

 

EXISTENTIALISME

il y a 3 mois

existentialisme
(de existentiel)

Jean-Paul Sartre

Doctrine philosophique qui met l'accent sur le vécu humain plutôt que sur l'être et qui affirme l'identité de l'existence et de l'essence, ou leur parfaite complémentarité.
Existentialisme et littérature

L'existentialisme n'est pas un mouvement littéraire, et il n'existe pas à proprement parler de littérature existentialiste. C'est par une extension abusive du terme que le langage courant a qualifié d'existentialistes un certain nombre de manifestations culturelles de tous ordres qui se sont produites en France entre 1945 et 1955. Cette période a été dominée par les figures de Jean-Paul Sartre et d'Albert Camus, mais ni l'un ni l'autre n'a jamais prétendu diriger ou inspirer une école littéraire.
Historiquement, on peut considérer qu'il existe une littérature de l'époque dite « existentialiste », mais il s'en faut de beaucoup qu'elle ne contienne que des œuvres d'existentialistes déclarés : Camus lui-même a refusé cette étiquette. En revanche, la littérature de l'époque existentialiste se caractérise par un certain nombre de traits dont on trouve l'expression la plus pure et la plus intense dans les œuvres littéraires de Sartre et de Camus. Comme on l'a écrit, l'existentialisme a été, « autour d'un certain nombre d'œuvres auxquelles il convient de restituer leur singularité, un climat philosophique, politique et littéraire, un ensemble de thèmes et de préoccupations qui caractérisent plus une situation historique et une période qu'une grande famille de la littérature française ».
La situation historique était celle de la Libération. C'est dans le climat dramatique de l'Occupation et de la Résistance qu'est née l'angoisse, trait commun de la plupart des écrivains de l'époque existentialiste. C'est d'ailleurs parce que la philosophie héritée de Husserl et de Heidegger place l'angoisse au cœur même de l'existence que sa vulgarisation – dès les années de guerre avec Gabriel Marcel – a rencontré un tel écho et a pu, de ce fait, devenir un thème littéraire. Les grands textes de base de Sartre, comme la Nausée ou de Camus, comme l'Étranger, sont des descriptions d'une expérience de l'angoisse. On en pourrait dire autant des premiers romans de Simone de Beauvoir et aussi des pièces d'un écrivain comme Jean Anouilh, qui n'est pas un existentialiste, mais dont l'Antigone (1944), à peu près contemporaine des Mouches (1943) de Sartre, reflète le même climat moral et psychologique.
Un autre trait de la philosophie existentialiste qui devait trouver un écho dans le public est sa manière d'appréhender le réel, ce qu'on appelle la phénoménologie. En un temps où l'événement est roi et où les constructions intellectuelles s'écroulent sous la poussée d'une histoire au sens propre absurde, l'interrogation de l'instant, de l'objet, de la conscience immédiate fournit à l'écrivain une riche matière. La description minutieuse, attentive, mais impitoyable et souvent désespérée de ce que les sens perçoivent est un des procédés caractéristiques de l'écriture existentialiste. Plus tard, le « nouveau roman » en héritera et en fera un système. Il y a une filiation directe de l'écriture de Sartre narrateur à celle de Michel Butor, d'Alain Robbe-Grillet ou de Claude Simon.
Le nouveau roman reniera cette filiation, mais toute l'attitude phénoménologique des existentialistes est encore dans cette remarque d'Alain Robbe-Grillet : « Or le monde n'est ni signifiant, ni absurde. Il est tout simplement. C'est là en tout cas ce qu'il a de plus remarquable. Et soudain cette évidence nous frappe avec une force contre laquelle nous ne pouvons plus rien. […] Autour de nous, défiant la meute de nos adjectifs animistes ou ménagers, les choses sont là. Leur surface est nette et lisse, intacte, sans éclat louche ni transparence. Toute notre littérature n'a pas encore réussi à en entamer le plus petit coin, à en amollir la moindre courbe. »
On notera que l'absurde est ici refusé en tant que catégorie littéraire, et c'est en cela notamment que l'idéologie du nouveau roman se sépare de la littérature d'inspiration existentialiste, dont le sentiment de l'absurde est encore un des traits caractéristiques. Il survivra brillamment en particulier dans le théâtre de Beckett et d'Ionesco, et plus encore dans celui de Jean Genet. Ce dernier, auquel Sartre a consacré plusieurs études, est probablement un des auteurs contemporains dont il est possible de dire qu'il appartient à la lignée existentialiste. Il fait dire à un de ses personnages, représentant des opprimés : « Nous sommes ce qu'on veut que nous soyons, nous le serons donc jusqu'au bout, absurdement. »
Le trait peut-être le plus caractéristique de la littérature dite « existentialiste » est l'engagement conçu comme une expérience, comme une situation de l'écrivain plutôt que comme une loi morale. Pivot de la pensée littéraire de Sartre, l'engagement est avant tout la prise de conscience par l'écrivain de sa responsabilité politique et idéologique. Ce n'est, en aucun cas, l'asservissement à un pouvoir politique ou à une idéologie, ainsi qu'on l'a parfois un peu légèrement ou perfidement représenté.
Ce qui pourrait, à la rigueur, passer pour un manifeste littéraire de l'existentialisme est un petit livre de Jean-Paul Sartre paru en 1947 : Qu'est-ce que la littérature ? Mais, plutôt que l'expression des principes d'un groupe, il faut y voir l'analyse d'un philosophe militant qui est en même temps un écrivain et qui réfléchit en moraliste sur le phénomène littéraire.
Les trois premiers chapitres du livre répondent à trois questions : Qu'est-ce qu'écrire ? Pourquoi écrire ? Pour qui écrit-on ?
À la première question, Sartre répond en disant qu'écrire, c'est transmettre un message en se livrant tout entier « comme une volonté résolue et comme un choix, comme cette totale entreprise de vivre que nous sommes chacun ».
L'exercice de la liberté est la réponse à la deuxième question : pourquoi écrire ? Il s'agit de « la liberté concrète et quotidienne qu'il faut protéger, en prenant parti dans les luttes politiques et sociales ».
Enfin, on écrit pour un lecteur dont l'acte de lecture va au-devant de l'acte d'écriture pour créer l'œuvre de l'esprit. « Ainsi le public concret serait une immense interrogation féminine, l'attente d'une société tout entière que l'écrivain aurait à capter et à combler. » Mais de telles conditions ne peuvent être réalisées que dans une société sans classes.
Cette constatation conduit Sartre à s'interroger dans un dernier chapitre sur ce qu'est la situation de l'écrivain dans la société où il vit, c'est-à-dire celle de 1947.
Sa conclusion est que la littérature est menacée dans cette société et que « son unique chance, c'est la chance de l'Europe, du socialisme, de la paix ». Sartre indique ainsi quels doivent être les combats de l'écrivain engagé, c'est-à-dire de l'écrivain libre. Dans les idées de Sartre, ce sont les notions de message et d'engagement qui sont les plus fréquemment contestées. La critique structuraliste, en particulier, les considère comme « métaphysiques » et incompatibles avec la rigueur scientifique qu'elle exige de l'expression littéraire. Elles sont pourtant passées dans les mœurs et dans le langage.
Même s'il n'a jamais fondé d'école littéraire, l'existentialisme, outre quelques grandes œuvres, a laissé dans notre vie littéraire des marques durables, notamment la conscience du lecteur et l'exigence d'une éthique de l'écrivain.


Existentialisme et philosophie

Un double refus de la philosophie caractérise l'existentialisme. Refus de la philosophie en tant qu'elle constituerait une discipline portant sur un ensemble de problèmes fixés par la tradition, en particulier en tant qu'elle serait une « science de l'être ». Et d'abord parce que l'être n'est pas un objet, parce que le rapport à l'être n'est, en aucun sens du terme, « disciplinable » : il s'établit sur le mode de la question dans l'expérience de l'angoisse. Tel est d'ailleurs le sens de l'opposition de l'essence et de l'existence : si les divers « étants » (pierres, plantes, animaux, etc.) ont chacun une structure propre, celle de l'homme – l'existence (ou Dasein) – veut précisément qu'en lui son être soit (en) question. Autrement dit, l'analyse du Dasein (du mode d'existence illustré et incarné par l'homme) révèle que l'homme n'est pas, mais qu'il a à être (quelque chose), révèle donc que son essence est postérieure à son existence et même, selon le mot de Jean Wahl, que « l'existence n'a pas d'essence ». Si les choses sont ce qu'elles sont, l'homme n'est jamais ce qu'il est : leur existence statique s'oppose à son existence « ek-statique ». L'existence est perpétuelle transcendance, pouvoir inépuisable d'être autre chose, de différer jusqu'à la mort. Mais, en même temps, cette transcendance et la liberté qu'elle implique s'enracinent dans la finitude d'une situation qui ne leur doit rien : on ne choisit pas d'exister. En effet, l'existence – et ce sera là un second axe de transcendance qui prolonge les descriptions faites par Husserl de la structure intentionnelle de la conscience – est, en son cœur même, rapport avec l'extériorité d'un monde qui n'est pas son œuvre. Exister, ce n'est donc pas être, mais être-dans, être-avec, être-pour, etc. « L'existentialisme, écrit Emmanuel Lévinas, consiste à sentir et à penser que le verbe être est transitif. » À l'analyse du concept d'être que la philosophie traditionnelle poursuivait, l'existentialisme substitue une description des divers modes d'existence, des diverses structures qu'adopte le phénomène d'exister : une « ontologie phénoménologique », selon le sous-titre donné par Sartre à l'Étre et le Néant (1943).
Cette contestation de la philosophie comme théorie de l'être en tant que concept et du primat des essences sur les existences représente ce que l'on pourrait appeler le « contenu doctrinal » de la philosophie existentielle ; elle est commune d'ailleurs à nombre de penseurs qui, pourtant (comme Heidegger), refusent d'être définis comme existentialistes. Or, elle continue à se produire dans le cadre ménagé par la tradition occidentale à l'exercice de la philosophie : l'enseignement. C'est ici qu'apparaît le second refus : affirmer, à l'intérieur des franchises universitaires, que l'existence n'a pas d'essence, n'est-ce pas se contenter, dans la contestation de la philosophie, d'une demi-mesure qui condamne la doctrine existentialiste à une position inauthentique ? Pour être conséquent l'existentialisme n'exige-t-il pas que la philosophie cesse d'être le fait de professeurs qui discourent sur la vie, mais qu'elle soit la vie elle-même ? Si les concepts s'enseignent, l'existence se vit. Autrement dit, après la contestation de la philosophie effectuée au sein de l'espace philosophique traditionnel par les penseurs allemands, il faut (c'est du moins ce que pensent et entreprennent ceux qui, en France, revendiquent le nom d'existentialistes) mettre en œuvre une contestation en quelque sorte pratique, en rupture d'université, qui s'installe de plain-pied avec l'existence, qui détruise la dissociation de la philosophie et de l'existence.
C'est ici, également, qu'apparaît l'importance rétrospective de Kierkegaard avec son double refus théorique et pratique de la philosophie, que symbolise l'opposition à Hegel. Toute son œuvre, toute sa vie ne sont qu'un refus du savoir, qu'une revendication inlassable de la singularité de l'existence subjective, qu'une affirmation de l'incommensurabilité du savoir et du vécu. C'est ce que Sartre exprime quand il écrit que « Kierkegaard marque par sa simple vie que tout savoir concernant le subjectif est d'une certaine manière un faux savoir », que « le vécu comme réalité concrète se pose comme non-savoir ».
L'existentialisme ne saurait être une doctrine qui se professe : il affirme qu'aucun recul, qu'aucune « mise-entre-parenthèses » n'est possible, car l'existence, c'est ce dans quoi l'on est toujours engagé. (On peut objecter que ce refus mène à deux inauthenticités, au choix : la parole professorale ou le bavardage.)
L'entrée de l'existentialisme dans la vie quotidienne adopte deux directions : renonçant au mode d'expression philosophique, il recourt volontiers aux formes littéraires ; d'autre part, il demande à l'époque le thème de ses réflexions, ce qui l'oriente vers la politique. (La littérature, qui présente des personnages et non des concepts, des situations concrètes et non des raisonnements, est théoriquement accessible à des lecteurs non spécialisés. Quant à la politique, elle est précisément ce qui occupe toutes les pensées du moment.) Ces deux voies, autour desquelles s'ordonnaient les premiers sommaires de la revue les Temps modernes, convergeront dans le programme d'une littérature engagée.

 

DOCUMENT   larousse.fr    LIEN

 

L'EAU UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE

il y a 3 mois

L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE


L'eau est un liquide dont les propriétés sont tout à fait surprenantes, à la fois comme liquide pur et comme solvant. C'est un liquide très cohésif : ses températures de cristallisation et d'ébullition sont très élevées pour un liquide qui n'est ni ionique, ni métallique, et dont la masse molaire est faible. Cette cohésion est assurée par les liaisons hydrogène entre molécules d'eau ; l'eau fait ainsi partie d'un petit groupe de liquides qu'on appelle liquides associés. Cependant, parmi ces liquides, la cohésion de l'eau est remarquable, et elle se traduit par une chaleur spécifique énorme. Cette résistance aux variations de température a des conséquences climatiques importantes, puisque la capacité calorifique des océans leur fait jouer le rôle de régulateurs thermiques du climat. L'eau est aussi un liquide très cohésif d'un point de vue diélectrique : sa constante diélectrique est bien plus élevée que celle qu'on attendrait sur la base de la valeur du moment dipolaire de la molécule isolée. C'est aussi, dans les conditions usuelles de température et de pression, un liquide peu dense : les atomes y occupent moins de la moitié du volume total ; une grande partie du volume de l'eau liquide est donc formée de cavités. Le volume occupé par ces cavités varie de manière tout à fait anormale à basse température. D'abord, l'eau se dilate quand on la refroidit en dessous d'une température appelée température du maximum de densité. Ensuite, l'eau se dilate encore de 9 % en cristallisant, contrairement à la plupart des liquides, qui se contractent d'environ 10 % en cristallisant. Cette augmentation de volume, qui fait flotter la glace sur l'eau, a des conséquences environnementales considérables : si la glace était plus dense que l'eau liquide, toute la glace formée dans les régions arctiques coulerait au fond des océans au lieu de former une banquise qui les isole thermiquement des températures extérieures, et la production de glace continuerait jusqu'à congélation complète de ces océans Pour presque tous les liquides, l'application d'une pression réduit la fluidité et favorise le solide par rapport au liquide. Au contraire, pour l'eau à basse température, l'application d'une pression accroît la fluidité et favorise le liquide par rapport à la glace. Cet effet anormal de la pression permet à l'eau de rester fluide lorqu'elle est confinée dans des pores ou des films nanométriques, contrairement aux autres liquides qui se solidifient sous l'effet des pressions de confinement. Cette persistance de l'état fluide est capitale pour le fonctionnement des cellules biologiques : en effet, de nombreux processus requièrent le déplacement de couches d'hydratation avant le contact entre macromolécules, ou avant le passage d'un ligand vers son récepteur. De même le passage des ions à travers les canaux qui traversent les membranes des cellules n'est possible que grâce à l'état fluide de l'eau confinée dans ces canaux. Les théories anciennes attribuaient toutes ces anomalies au fait que les molécules d'eau sont liées par des liaisons H. En ce sens, l'eau devrait avoir des propriétés « en ligne » avec celles d'autres liquides associés (éthanol, glycols, amides). Pour les propriétés de cohésion, c'est une bonne hypothèse de départ – bien que les propriétés de l'eau (densité d'énergie cohésive, constante diélectrique) soient supérieures à celles des liquides comparables. Pour les autres propriétés, cette hypothèse n'est pas suffisante : les autres liquides associés ne partagent pas les propriétés volumiques anormales de l'eau, ni son polymorphisme, ni son comportement comme solvant. Certains liquides ont un comportement qui ressemble à celui de l'eau pour une de ses propriétés : par exemple, on connaît quelques liquides qui se dilatent à basse température, ou en cristallisant. Nous découvrirons peut-être un jour que chacune des propriétés anormales de l'eau existe aussi dans un autre liquide. Cependant il est remarquable qu'un seul liquide rassemble autant d'anomalies. Il y a donc un besoin d'explication, auquel ne répondent pas les théories développées pour les liquides simples.

 

  DOCUMENT       canal-u.tv     LIEN  

 ( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )

Méningites à méningocoque

il y a 3 mois


1er juin 2014
Méningites à méningocoque : un pas décisif dans la compréhension du mécanisme pathogène de cette bactérie

Neisseria meningitidis ou méningocoque, est une bactérie responsable de méningites et de septicémies1, dont la forme la plus grave, purpura fulminans, est souvent fatale. Cette bactérie, qui réside naturellement dans le rhinopharynx de l'Homme, est pathogène lorsqu'elle atteint la circulation sanguine. Les équipes du Dr Sandrine Bourdoulous, directrice de recherche CNRS à l'Institut Cochin (CNRS/Inserm/Université Paris Descartes), et du Pr Xavier Nassif de l'Institut Necker Enfants Malades (CNRS/Inserm/Université Paris Descartes/AP-HP) ont décrypté les événements moléculaires par lesquels les méningocoques ciblent les vaisseaux sanguins et les colonisent. Ces travaux ouvrent la voie à de nouvelles perspectives thérapeutiques pour le traitement des troubles vasculaires provoqués par ce type d'infection invasive. Leur étude est publiée le 1er juin 2014 dans Nature Medicine.
Lorsque Neisseria meningitidis se multiplie dans le sang, cette bactérie interagit avec les cellules endothéliales qui tapissent l'intérieur des vaisseaux sanguins et adhère aux parois de ces derniers. Au niveau de la peau et des muqueuses, l'infection des vaisseaux par le méningocoque crée des lésions hémorragiques (dites purpuriques), dues à des saignements dans les tissus, qui peuvent rapidement évoluer vers une forme grave et souvent mortelle de la maladie (le purpura fulminans) Au niveau du cerveau, l'adhérence des méningocoques aux vaisseaux leur permet de franchir la barrière hémato-encéphalique2 et d'entraîner une méningite lorsqu'ils envahissent les méninges3. 

Les équipes de chercheurs ont décrypté le mécanisme d'adhérence de Neisseria meningitidis aux vaisseaux sanguins, étape au cœur de la pathogénicité de la bactérie. Du côté des vaisseaux sanguins, ils ont identifié le récepteur4 CD147, dont l'expression est essentielle à l'adhérence initiale du méningocoque aux cellules endothéliales. Si ce récepteur est absent, N. meningitidis ne peut pas s'implanter et coloniser les vaisseaux sanguins.

Du côté bactérien, il est connu que les processus d'adhérence du méningocoque aux cellules humaines reposent sur les pili de longs appendices filamenteux exprimés par la bactérie, composés de différentes sous-unités (les pilines). Cependant, les pilines spécifiquement impliquées dans l'adhérence de N. meningitidis aux vaisseaux sanguins n'avaient jamais été identifiées. Les chercheurs ont ainsi déterminé que deux pilines, PilE et PilV, interagissent directement avec le récepteur CD147. Sans elles, les méningocoques ne peuvent pas adhérer aux cellules endothéliales.

L'Homme est la seule espèce pouvant être infectée par les méningocoques. Pour montrer in vivo que les pilines PilE et PilV sont essentielles à la colonisation du réseau vasculaire par N. meningitidis, les chercheurs ont utilisé un modèle de souris immunodéficientes greffées avec de la peau humaine, conservant des vaisseaux humains fonctionnels au sein de la greffe et permettant ainsi de reproduire chez la souris les phases cutanées de l'infection observée chez l'Homme. Ces souris ont alors été infectées par des méningocoques possédant naturellement les pilines PilE et PilV, ou des méningocoques dans lesquels l'expression de ces pilines a été artificiellement supprimée. Les vaisseaux sanguins humains ne sont infectés que par les méningocoques possédant PilE et PilV ce qui confirme que ces deux pilines sont essentielles au processus de colonisation de la bactérie. 
Les chercheurs ont également montré, avec un modèle d'infection ex vivo5, que les vaisseaux cérébraux et les méninges, particulièrement riches en récepteurs CD147, sont permissifs à la colonisation par les méningocoques à la différence d'autres parties du cerveau. 

Les chercheurs souhaitent désormais développer un nouveau type de vaccin (en complément de ceux qui existent déjà) qui bloquerait l'interaction entre N. meningitidis et les récepteurs CD147 et empêcherait ainsi la colonisation des vaisseaux par la bactérie. 

Cette étude a été réalisée grâce au soutien des équipes du Dr Frank Lafont, du Centre d'infection et d'immunité de Lille (CNRS/Inserm/Institut Pasteur de Lille/Université Lille 1/Université Lille 2), du Pr Fabrice Chrétien, de l'unité Histopathologie humaine et modèles animaux de l'Institut Pasteur de Paris et du Dr Eric Chevet du Groupe de recherches pour l'étude du foie (Inserm/Université de Bordeaux).

 

 DOCUMENT         cnrs        LIEN 

Méningites à méningocoque

il y a 3 mois


1er juin 2014
Méningites à méningocoque : un pas décisif dans la compréhension du mécanisme pathogène de cette bactérie

Neisseria meningitidis ou méningocoque, est une bactérie responsable de méningites et de septicémies1, dont la forme la plus grave, purpura fulminans, est souvent fatale. Cette bactérie, qui réside naturellement dans le rhinopharynx de l'Homme, est pathogène lorsqu'elle atteint la circulation sanguine. Les équipes du Dr Sandrine Bourdoulous, directrice de recherche CNRS à l'Institut Cochin (CNRS/Inserm/Université Paris Descartes), et du Pr Xavier Nassif de l'Institut Necker Enfants Malades (CNRS/Inserm/Université Paris Descartes/AP-HP) ont décrypté les événements moléculaires par lesquels les méningocoques ciblent les vaisseaux sanguins et les colonisent. Ces travaux ouvrent la voie à de nouvelles perspectives thérapeutiques pour le traitement des troubles vasculaires provoqués par ce type d'infection invasive. Leur étude est publiée le 1er juin 2014 dans Nature Medicine.
Lorsque Neisseria meningitidis se multiplie dans le sang, cette bactérie interagit avec les cellules endothéliales qui tapissent l'intérieur des vaisseaux sanguins et adhère aux parois de ces derniers. Au niveau de la peau et des muqueuses, l'infection des vaisseaux par le méningocoque crée des lésions hémorragiques (dites purpuriques), dues à des saignements dans les tissus, qui peuvent rapidement évoluer vers une forme grave et souvent mortelle de la maladie (le purpura fulminans) Au niveau du cerveau, l'adhérence des méningocoques aux vaisseaux leur permet de franchir la barrière hémato-encéphalique2 et d'entraîner une méningite lorsqu'ils envahissent les méninges3. 

Les équipes de chercheurs ont décrypté le mécanisme d'adhérence de Neisseria meningitidis aux vaisseaux sanguins, étape au cœur de la pathogénicité de la bactérie. Du côté des vaisseaux sanguins, ils ont identifié le récepteur4 CD147, dont l'expression est essentielle à l'adhérence initiale du méningocoque aux cellules endothéliales. Si ce récepteur est absent, N. meningitidis ne peut pas s'implanter et coloniser les vaisseaux sanguins.

Du côté bactérien, il est connu que les processus d'adhérence du méningocoque aux cellules humaines reposent sur les pili de longs appendices filamenteux exprimés par la bactérie, composés de différentes sous-unités (les pilines). Cependant, les pilines spécifiquement impliquées dans l'adhérence de N. meningitidis aux vaisseaux sanguins n'avaient jamais été identifiées. Les chercheurs ont ainsi déterminé que deux pilines, PilE et PilV, interagissent directement avec le récepteur CD147. Sans elles, les méningocoques ne peuvent pas adhérer aux cellules endothéliales.

L'Homme est la seule espèce pouvant être infectée par les méningocoques. Pour montrer in vivo que les pilines PilE et PilV sont essentielles à la colonisation du réseau vasculaire par N. meningitidis, les chercheurs ont utilisé un modèle de souris immunodéficientes greffées avec de la peau humaine, conservant des vaisseaux humains fonctionnels au sein de la greffe et permettant ainsi de reproduire chez la souris les phases cutanées de l'infection observée chez l'Homme. Ces souris ont alors été infectées par des méningocoques possédant naturellement les pilines PilE et PilV, ou des méningocoques dans lesquels l'expression de ces pilines a été artificiellement supprimée. Les vaisseaux sanguins humains ne sont infectés que par les méningocoques possédant PilE et PilV ce qui confirme que ces deux pilines sont essentielles au processus de colonisation de la bactérie. 
Les chercheurs ont également montré, avec un modèle d'infection ex vivo5, que les vaisseaux cérébraux et les méninges, particulièrement riches en récepteurs CD147, sont permissifs à la colonisation par les méningocoques à la différence d'autres parties du cerveau. 

Les chercheurs souhaitent désormais développer un nouveau type de vaccin (en complément de ceux qui existent déjà) qui bloquerait l'interaction entre N. meningitidis et les récepteurs CD147 et empêcherait ainsi la colonisation des vaisseaux par la bactérie. 

Cette étude a été réalisée grâce au soutien des équipes du Dr Frank Lafont, du Centre d'infection et d'immunité de Lille (CNRS/Inserm/Institut Pasteur de Lille/Université Lille 1/Université Lille 2), du Pr Fabrice Chrétien, de l'unité Histopathologie humaine et modèles animaux de l'Institut Pasteur de Paris et du Dr Eric Chevet du Groupe de recherches pour l'étude du foie (Inserm/Université de Bordeaux).

 

 DOCUMENT         cnrs        LIEN 

LE CARBONIFÈRE

il y a 4 mois

carbonifère

Système du paléozoïque supérieur, le carbonifère est la période de l'ère primaire, de – 359 à – 299 millions d'années (durée 65 millions d'années), entre le dévonien et le permien. À la base, les sédiments marins sont pauvres en trilobites, mais riches en foraminifères (fusulines), brachiopodes, goniatites, etc., et localement en amphibiens. Les premières plantes du groupe des gymnospermes (conifères actuels) apparaissent. Les sédiments continentaux de la partie supérieure sont riches en végétaux (houilles), en insectes, arthropodes et en premiers restes de reptiles.
Au carbonifère, les masses continentales sont en contact (constituant un amalgame mouvant appelé la Pangée), mais elles continuent à se déplacer les unes par rapport aux autres, provoquant de grandes déformations (chaîne hercynienne) accompagnées de rotations de blocs, révélées par le paléomagnétisme, de l'Espagne à l'Europe centrale. Une glaciation encadrée par deux périodes chaudes affecte l'hémisphère Sud (Gondwana). Le carbonifère fait partie du cycle hercynien ou varisque.
La paléogéographie du carbonifère
Avec le carbonifère, après qu'en certaines régions une phase bretonne eut inauguré l'orogenèse hercynienne, une transgression générale, l'une des plus importantes des temps géologiques (comparable par son ampleur à celle du crétacé supérieur), s'avance sur toutes les masses continentales. Sur le continent nord-atlantique en Europe, c'est la transgression dinantienne. En Amérique du Nord, cette transgression est dite mississippienne. Le carbonifère saharien est également transgressif sur le continent nigritien.
Cette transgression marine dépose des calcaires. Les premières ébauches de chaîne hercynienne commencent à émerger, alimentant la sédimentation d'un flysch dans les fosses marines (faciès kulm ou culm en Europe).
Au carbonifère moyen et supérieur, la chaîne hercynienne commence à se structurer avec les phases sudète et asturienne, essentielles dans le domaine prototéthysien occidental (Amérique du Nord, Europe de l'Ouest).
Au carbonifère moyen, par suite du basculement de l'équateur, une zone d'évaporites se développe sous les latitudes subtropicales (régions septentrionales de l'Amérique du Nord, du Groenland et de l'Europe du Nord). Par ailleurs, l'équateur, qui passe alors par le sud des États-Unis et le sud de l'Europe, est le siège d'une exubérante végétation (forêt houillère) qui colonise les zones exondées par la surrection de la chaîne hercynienne. C'est en bordure de la chaîne hercynienne que se formeront les bassins houillers paraliques marins. Au carbonifère supérieur s'individualisent, à l'intérieur de la chaîne, des bassins houillers limniques continentaux.
La Pangée un moment réunie se dissocie, à la fin du carbonifère, en trois blocs qui connaîtront des évolutions paléogéographiques et bioclimatiques ultérieures différentes : au sud, le continent du Gondwana (boucliers brésilien, africain, arabe, australien) et, au nord, celui de l'Angara (plate-forme sibérienne) et le continent nord-atlantique.
La biostratigraphie et la chronostratigraphie du carbonifère
Le carbonifère constitue un système unique et se subdivise en deux parties ayant chacune rang de sous-système : dinantien et silésien en Europe, mississippien et pennsylvanien en Amérique du Nord.
Ces sous-systèmes se subdivisent eux-mêmes en séries : tournaisien et viséen pour le dinantien ; namurien, westphalien et stéphanien pour le silésien. Les autres dénominations correspondantes sont au nombre de douze et sont principalement définies à partir de stratotypes situés en Russie.
La paléontologie du carbonifère
Les animaux

À la suite des poissons, les batraciens se développent – avec l'apparition d'un groupe de grande taille, les stégocéphales – ainsi que les reptiles, dont le dimétrodon. Les premiers insectes sont connus au carbonifère. Parmi les microfossiles, les fusulines apparaissent. Elles constituent le fondement de la stratigraphie du permo-carbonifère mésogéen. Les trilobites et les goniatites restent très présentes.
Les végétaux

Les végétaux continuent leur explosion : les cryptogames vasculaires, se reproduisant par des spores, constituent de véritables forêts. Les groupes de ptéridophytes se diversifient, et certains atteignent des tailles d'arbres : filicales, lycopodiales (Lepidodendron, Sigillaria), équisétales (Calamites). Les gymnospermes (conifères actuels) sous forme de cordaïtes apparaissent.
Le volcanisme, la granitisation et les gisements métallifères au carbonifère
Au carbonifère inférieur, la mise en place de ceintures volcaniques sous-marines s'accompagne vers – 360 millions d'années d'une importante phase métallogénique en ce qui concerne le cuivre, l'or et les métaux de base, avec la formation en Europe des amas sulfurés de Neves Corvo (Portugal), de la ceinture sud-ibérique (Rio Tinto), de Mavan et Galmoy en Irlande, de la Toscane et de Chessy et Sain-Bel, en France.

Au carbonifère supérieur, un important volcanisme orogénique profond accompagne également la sédimentation du stéphanien. Avec les granitoïdes et l'hydrothermalisme connexes, il détermine la mise en place dans le socle ancien des hercynides d'Europe et d'Ouzbékistan, vers – 300 millions d'années, de minéralisations filoniennes économiques à or, antimoine, plomb, argent, zinc, et plus tardivement (vers – 280 à – 260 millions d'années) à zinc, plomb, fluorine et localement, uranium.

 

 DOCUMENT   larousse.fr    LIEN

 

LE NUMÉRIQUE ET LES NOUVELLES PRATIQUES D’INFORMATION

il y a 4 mois

08 LE NUMÉRIQUE ET LES NOUVELLES PRATIQUES D’INFORMATION
Us et abus d’internet : enjeux sociaux et psychologiques des Pratiques numériques

Le numérique touche désormais l’ensemble de notre vie et bouleverse nos habitudes, nos savoir-faire (lire, écrire, raconter, travailler, jouer), interroge nos certitudes et par là-même l’ensemble de nos paradigmes économiques, juridiques, technologiques et sociétaux. Les transformations engendrées par ce monde numérique se sont produites très rapidement et n’ont pas toujours laissé le temps de développer une réflexion structurée capable de les comprendre.

Les sciences et les technologies du numérique bouleversent en profondeur nos structures sociales, notre rapport à la connaissance, à la culture, aux territoires, à la société, et modifient jusqu’à la construction même de nos identités. Ces pratiques liées au numérique mettent en place de nouvelles valeurs susceptibles de donner lieu à de nouvelles pratiques culturelles. Le numérique nous invite à repenser nos rapports avec l’espace, le temps et l’image.

Cette société numérique dans laquelle nous évoluons aujourd’hui et dans laquelle nous vivrons demain promet d’être une aventure « fascinante et effrayante ». Cette journée d’étude va essayer d’étudier et d’examiner les pratiques liées au numérique.

Elle sera organisée en quatre axes :

1.       Connectivité : usages participatifs et espace public ;

2.       Éthique et humanités numériques ;

3.       Addictions et culture des écrans ;

4.       Information et accès aux savoirs.

Face à ces mutations numériques, il s’agit de proposer une approche critique, pour faire le bilan de leurs pratiques. Nous avons souhaité poser ces questions et inviter des chercheurs qui puissent les comprendre et y apporter des réponses.

Quatrième session : information et accès aux savoirs

Rémy Rieffel, sociologue des médias, professeur à l’Université Paris II Panthéon-Assas et à l’Institut français de presse (IFP) et directeur du Carism : Le numérique et les nouvelles pratiques d’information.

 

  DOCUMENT       canal-u.tv     LIEN

LANGAGE

il y a 4 mois

langage

Capacité, observée chez tous les hommes, d'exprimer leur pensée et de communiquer au moyen d'un système de signes vocaux et éventuellement graphiques (la langue). [Voir également troubles du langage.]


LINGUISTIQUE

Le langage est un système qui a pour finalité de réaliser un message d'un émetteur vers un récepteur. Cela permet d'englober plusieurs modes de communication formalisés : langue naturelle, langages artificiels (de programmation informatique, par exemple), ou tout autre code : Code de la route, langage des fleurs, etc. Chaque langue naturelle est un code original propre à l'espèce humaine ; les langages artificiels proviennent de simplifications et de conventions à partir des langues naturelles.
La hiérarchisation des signes

Ferdinand de Saussure
Ce système est dit « articulé » (A. Martinet), ce qui signifie que tout énoncé langagier doit pouvoir s'analyser à deux niveaux. Au niveau de la production de chaque langage, chaque unité s'articule en deux unités non significatives mais distinctives, par exemple entre le phonème (son émis) et le morphème (forme minimale de signification ; exemple : le pluriel en -s), entre le morphème et le syntagme (unité dans une organisation phrastique ; exemple : « le chien » dans « le chien dort »), etc. La combinaison des morphèmes, liée à la syntaxe (L. Bloomfield, Z. Harris), et l'assemblage des syntagmes forment une structuration hiérarchisée d'éléments constituants. C'est là que se situe la spécificité du langage humain, par opposition à un « langage » animal, dont on ne peut parler que par métaphore : les abeilles communiquent, mais leur mode de communication est exclusivement signalétique ; ce n'est donc pas un langage articulé.
Différentes écoles ont tenté de décrire l'intégration systémique du langage humain : les structuralistes (F. de Saussure, L. T. Hjelmslev) ont mis l'accent sur les oppositions et les complémentarités dans les distributions de phonèmes, morphèmes, lexèmes, etc., d'où résulterait le fonctionnement du système langagier. Les dernières théories de N. Chomsky ont permis d'avancer l'hypothèse d'une organisation en modules, c'est-à-dire en petites unités de traitement distribuées en réseaux réglés pour permettre la communication de l'information.


Les fonctions du langage

La notion de fonction du langage a été mise en valeur par l'école de Prague. La fonction principale est celle de communication (dite aussi référentielle ou cognitive). Cependant, selon les caractères de la communication, il existe différentes fonctions du langage. R. Jakobson a distingué six fonctions qui, dans toute langue, se rapportent chacune à l'un des pôles fondamentaux de la communication linguistique. Toute communication fait en effet intervenir six facteurs : l'émetteur, le destinataire, le contexte, ou référent, le code commun à l'émetteur et au destinataire, le canal (le support physique) de la communication, le message.
Le linguiste distingue ainsi la fonction émotive, qui centre le message sur l'émetteur, le locuteur (exemple : « Quel sale temps ce week-end ! »), la fonction conative, qui vise à influencer le destinataire (exemple : « Corrige-moi si je me trompe » ; « Viens ici »!), la fonction référentielle (ou dénotative, ou cognitive), qui renvoie au contexte (exemple : « Le chien est un animal »), la fonction phatique, qui renvoie au canal ou au contact (exemple : « Allo, ne coupez pas »), la fonction métalinguistique, qui renvoie au code lui-même (exemple : « Porte-manteau est invariable ») la fonction poétique, qui concerne le message en lui-même.


Les universaux du langage

On peut dénombrer dans le langage un certain nombre d'universaux, parmi lesquels on peut distinguer des universaux substantiels et des universaux conditionnels.
Dans la catégorie des universaux substantiels entreraient le prédicat (ce qu'on dit d'un sujet dans un énoncé quelconque) ainsi que les mots fonctionnels. En effet, dans toutes les langues du monde existent des formes (noms ou verbes) susceptibles de recevoir la fonction prédicative et se trouvent également des morphèmes ne désignant rien par eux-mêmes (ils ne renvoient pas aux choses), mais dont la fonction est d'établir tel ou tel rapport entre les unités du lexique : les prépositions, les postpositions, les conjonctions, etc.
Les universaux conditionnels mettent en relation deux phénomènes : ils sont formulés sous une forme d'implication (si p, alors q). Ainsi, dans les langues à prépositions, le génitif suit presque toujours le nom régissant ; dans les langues à postpositions, il le précède presque toujours. Les langues à ordre PSO (prédicat-sujet-objet) sont toujours à prépositions (l'arabe, par exemple). Avec une fréquence qui ne peut être due au hasard, les langues à ordre SOP (sujet-objet-prédicat) sont postpositionnelles (le japonais, les langues altaïques, le birman, par exemple). [→ langue.]

DOCUMENT larousse.fr LIEN

document PDF LIEN

pédagogie du chant

il y a 4 mois

pédagogie du chant
Cet article est extrait de l'ouvrage Larousse « Dictionnaire de la musique ».
L'enseignement du chant a pour but de permettre au chanteur d'exploiter au mieux ses possibilités innées. Il est d'autant plus malaisé qu'aucun instrument n'est visible ni palpable, et que l'élève ne perçoit qu'une audition interne, et tronquée, de sa véritable voix. Le geste vocal à enseigner ne repose donc que sur la perception de sensations physiques, liées aux sensations auditives correspondantes. La difficulté primordiale consiste à déceler progressivement à quel type vocal appartient l'élève, alors que celui-ci ne peut encore donner l'exacte mesure de ses moyens. Or, ce classement dépend non seulement de l'étendue vocale apparente du sujet, mais de sa véritable tessiture, de son timbre, de la puissance éventuelle de la voix, mais encore de nombreux autres caractères propres tenant au milieu ethnique, acoustique, culturel, psychologique et physiologique de l'individu. Si l'essentiel de l'appareil vocal résulte, ainsi que le définit Georges Loiseau (Notes sur le chant, Paris, 1947) du « synchronisme entre le diaphragme (appui du souffle), le larynx et les résonateurs (toutes les cavités creuses situées au-dessus du larynx) », cette triade est liée « à la multiplicité des résultantes individuelles, à la personnalité et à l'individualité propre » de chacun. D'où la diversité des instruments vocaux, celle aussi des facteurs d'application de cet enseignement, qui varie avec chaque sujet dans la recherche d'un but commun, la parfaite disponibilité de la voix, sur toute son étendue, aux nuances et aux colorations les plus diverses, à une parfaite diction, et, enfin, à toutes les sollicitations d'expression ou de virtuosité du texte musical.
Enfin, dans le domaine de l'application, cet enseignement repose sur une autre ambiguïté, car si toutes les méthodes convergent pratiquement sur un mode de respiration (de préférence nasale), qui consiste à emplir d'abord la base des poumons par l'écartement des côtes et l'appui sur le diaphragme, l'expiration du souffle pose d'autres problèmes, car elle ne détermine pas a priori la bonne émission du son, et c'est cette émission qui entraîne a posteriori l'écoulement exact de l'air à expulser. La reconnaissance par le maître et par l'élève de la nature précise du son est donc primordiale dans toutes les pédagogies.
Ces dernières se rejoignent sur certains principes élémentaires de base : le travail vocal s'exécute d'abord sur des valeurs longues, lentes, bien liées entre elles, sans l'aide des consonnes et uniquement sur les notes du médium, celles qui précisément appartiennent en commun aux différents registres de la voix ; mais elles peuvent différer quant à leur application, puisqu'elles dépendent de la langue parlée (et entendue) par le sujet. Mais leur but commun étant la recherche de l'homogénéité du timbre et des voyelles sur toute l'étendue de la voix, leur premier objet est de réaliser la fusion entre ses divers registres par l'assombrissement progressif de la couleur des voyelles, de la note la plus grave à la note la plus aiguë, ce travail étant étroitement lié à la phonation de chaque langue. Le rejet de cette règle, tel qu'il a pu apparaître à certaines époques de l'histoire du chant ou de l'opéra, entraîne ce que l'on nomme parfois le « chant ouvert » (par assimilation à la couleur des voyelles ouvertes) qui, en obstruant le larynx, déforme la diction du texte, compromet l'émission des notes aiguës et leur disponibilité aux nuances. Or, la pose de voix consciente et maîtrisée est la condition préalable à l'interprétation musicale.
En effet, la pédagogie du chant comporte également la formation musicale de l'élève chanteur, qui doit être identique à celle de l'élève instrumentiste, à quelques spécialisations près. Elle est généralement assurée par un spécialiste, alors que la recherche de l'émission vocale et l'étude de l'interprétation peuvent incomber au même enseignant : ce dernier doit alors connaître non seulement les principales méthodes de chant des grands auteurs du passé, mais encore l'histoire des styles intimement liée à l'évolution de l'art lyrique. Il est donc souhaitable que la pédagogie du chant repose aussi sur une éducation de l'audition musicale de l'élève, facteur premier de toute reproduction vocale, par l'écoute critique des grands exemples du passé et du présent. C'est par la reproduction inconsciente de la parole d'autrui que le nouveau-né apprend l'usage de la parole, avec les qualités et défauts inhérents au milieu ambiant. Une fois mis en possession d'une technique vocale de base, l'élève peut ensuite se spécialiser dans une ou plusieurs branches de l'art lyrique, ou subir l'enseignement approprié à l'art de la scène, compte tenu du fait que toute pédagogie vocale doit tenir compte de la constante disponibilité de l'élève à toutes les sollicitations corporelles du concert ou de la scène.
Sans entrer ici dans les nombreuses disciplines afférent à cette pédagogie, il faut noter que si, depuis des siècles, de nombreux auteurs ont déploré l'appauvrissement de la pédagogie dans le domaine de la connaissance musicale, c'est son aspect technique qui s'est plus récemment dégradé et a conduit le chanteur à des spécialisations arbitraires et restrictives, sans justifications historiques, notamment vers le milieu de notre siècle où une divergence s'est créée entre une pédagogie axée sur la recherche d'un maximum d'intensité vocale et une autre tout aussi exclusivement attachée à une préciosité excessive dans l'expression de tous les styles ; or, s'il est patent que Verdi, Wagner, Puccini ou Bizet, par exemple, ont souvent prescrit la nuance pianissimo, rarement respectée par les interprètes, Monteverdi, Haendel, Mozart, Schubert, Debussy ou Fauré ont tout aussi souvent réclamé la nuance forte que leur refusent parfois les chanteurs.

 

   DOCUMENT   larousse.fr    LIEN

 

Le point sur... les gènes homéotiques

il y a 5 mois

Le point sur... les gènes homéotiques
par Naoum Salamé — Dernière modification 18/02/2012 10:06
Hervé Le Guyader, Professeur au Laboratoire de Biologie moléculaire et cellulaire du Développement de l'Université Pierre et Marie Curie, répond à nos questions.

 

Qu’est-ce qu’un gène homéotique ?

Un gène homéotique est, par définition, un gène dont la mutation produit une homéose, c’est-à-dire l’apparition d’un organe bien formé, mais à un mauvais emplacement du corps. Un gène homéotique est donc défini par rapport au phénotype qu’il entraîne lorsqu’il est muté, et non par sa séquence nucléotidique. Les premières observations de phénotypes homéotiques remontent à 1894, bien avant la découverte des gènes et la définition du mot phénotype !  
C’est William Bateson, qui en étudiant les variations intraspécifiques chez un coléoptère, observa des mutations homéotiques, notamment l’apparition de pattes à la place des antennes. Il fit d’ailleurs des observations similaires chez les végétaux, où les étamines pouvaient par exemple être remplacées par des pétales. Bateson comprit qu’un segment de l’organisme possède toutes les potentialités, et qu’au cours du développement, un « choix » s’opère ; lorsque ce choix est faux, le segment ne possède pas les appendices ou organes attendus. On apprendra plus tard que ce sont des  gènes qui déterminent ces choix. 

Les gènes homéotiques ne possèdent donc pas nécessairement la fameuse séquence appelée « homéoboîte » ?

Non, et la confusion est fréquente : en 1983, deux équipes de recherche distinctes, celle de Walter J. Gehring et celle de Thomes C. Kaufman , découvrent que tous les gènes homéotiques connus chez la drosophile possèdent une séquence commune de 180 paires de bases, qu’on nomme « homéboîte » (en anglais homeobox). La tentation est grande d’appeler alors « gène homéotique » tout gène  à homéoboîte…Cette définition s’applique effectivement chez la drosophile , et chez tous les animaux, mais il faut bien préciser deux points. 
D’une part, la réciproque est fausse : les chercheurs se sont très vite rendus compte que tous les gènes à homéoboîte ne sont pas des gènes homéotiques, c’est-à-dire que leurs mutations ne donnent pas nécessairement un phénotype homéotique. C’est le cas des gènes bicoïd (1), engrailed, fushi tarazu  (2), ou encore des gènes Pax (3), qui sont  des gènes du développement, mais pas des gènes homéotiques.  
D’autre part, cette définition ne s’applique pas aux végétaux : les gènes entraînant des phénotypes homéotiques chez les végétaux ne possèdent pas l’homéoboîte.

Quel rôle jouent les gènes homéotiques chez les différents organismes ?

Chez les arthropodes comme la drosophile, animal modèle des laboratoires, les gènes homéotiques déterminent l’identité de chaque segment de l’animal : ils dirigent ainsi l’apparition de pattes, d’antennes, ou de balanciers suivant les segments. Le phénotype « pattes à la place des antennes », décrit par Bateson, est dû chez la drosophile à une mutation dans le complexe de gènes homéotiques Antennapedia (4). Cette spécification des segments se fait suivant un axe antéro-postérieur, et il est fortement corrélé à l’ordre des gènes sur les chromosomes : c’est la règle de colinéarité. En parcourant l’ADN de 3’ vers 5’, on trouve des gènes dont les lieux d’action s’échelonnent de l’avant vers l’arrière de l’animal. 
Chez les vertébrés, la majeure partie des gènes homéotiques intervient dans l’identité des différentes parties du corps, suivant l’axe antéro-postérieur, -mais pas dans celle de l’axe dorso-ventral. Une partie d’entre eux joue également un rôle dans l’édification des membres. Chez la souris par exemple, les gènes homéotiques, regroupés en 4 complexes appelés HOX A à HOX D, interviennent dans la régionalisation de la colonne vertébrale et du système nerveux central. Des mutations de ces gènes entraînent par exemple l’apparition de vertèbres cervicales à l’endroit des de vertèbres dorsales ou encore des lombaires à la place de dorsales.  
Chez les végétaux, les gènes à MADSbox déterminent la mise en place des différentes verticilles de pièces florales : sépales, pétales, carpelle, étamines...

Quel est le mode d’action des gènes à homéoboîte ? 

Les gènes à homéoboîte sont des régulateurs de transcription, activateurs ou inhibiteurs suivant les cas : ils sont en quelque sorte des gènes « maîtres », qui dirigent l’expression d’autres gènes. Prenons l’exemple des gènes homéotiques animaux, qui possèdent tous l’homéoboîte : cette séquence code un peptide de 60 acides aminés, appelé homéodomaine, qui possède dans sa structure secondaire trois hélices a lui permettant de se fixer à l’ADN. L’homéodomaine régule ainsi la transcription d’autres gènes. Chez les végétaux, la MADSbox joue un rôle similaire : elle code un peptide possédant un site de fixation à l’ADN.

Les gènes homéotiques sont très conservés au sein du monde vivant. En quoi ont-ils pu participer à la diversité des êtres vivants ?

Lorsqu’en 1983, Gehring et Kaufman découvrent « l’homéoboîte », on crible des banques connues de séquences de gènes pour savoir si cette séquence est présente chez d’autres organismes que la drosophile : on  trouve d’abord des gènes à homéoboîte chez la souris, chez l’homme, puis chez tous les vertébrés. La plupart de ces gènes s’avèrent homologues chez les arthropodes et chez les vertébrés. De plus, ils sont regroupés en complexes dans les deux cas. Or les paléontologues nous disent que les arthropodes et les cordés se sont séparés il y a 540 millions d’années ! L’ancêtre commun à ces deux embranchements possédait donc déjà des gènes à homéoboîte, qui se sont probablement dupliqués au sein d’un complexe, qui se scindera plus tard en deux sous-complexes chez la drosophile, et se dupliquera pour en donner 4 chez les vertébrés, créant de la diversité.  
Les gènes à homéoboîte forment une famille multigénique, les gènes homéotiques en sont une sous-famille, et les gènes Hox des animaux constituent encore un sous-ensemble homogène de la famille des gènes homéotiques.  
Les gènes à homéoboîte sont très anciens, puisqu’on les trouve chez les plantes, chez les champignons…. Il en va de même pour les gènes à MADSbox découverts chez les végétaux, et qui sont présents chez presque tous les Eucaryotes, des unicellulaires aux vertébrés (5) Des gènes très anciens, par duplication et remaniements, ont été « recrutés » au cours de l’évolution pour accomplir de nouvelles fonctions. 

Propos recueillis par  
Anne-Laure Monnier

 (1) bicoïd code une protéine déterminant la polarité antéro-postérieure de l’embryon  de drosophile 
(2) engrailed et fushi tarazu sont des gènes intervenant dans la segmentation de l’embryon de Drosophile 
(3) Parmi les gènes Pax des vertébrés, on trouve une famille multigénique qui possède une paired-box , séquence présente dans trois gènes de segmentation de la drosophile. Cette famille de gènes Pax interviendrait dans la formation du tube neural, du rein et de l’œil. Pax 6 est un gène de cette famille, homologue de eyeless et aniridia. 
(4) Drosophila melanogaster possède deux grands complexes de gènes homéotiques : Antennapedia et Bithorax , qui correspondent à la scission d’un complexe ancestral HOX.  
(5) le facteur immunitaire SRF, chez les vertébrés, possède une MADSbox.

 

DOCUMENT          acces.ens-lyon.fr           LIEN

LE TEMPS DES NEURONES

il y a 5 mois

LE TEMPS DES NEURONES
Quinze minutes de plongée dans le monde étrange et fascinant de nos cellules nerveuses. Grâce aux techniques de la microcinématographie, les phénomènes les plus complexes qui se déroulent dans le cerveau sont enfin montrés. Nous voyons naître les cellules nerveuses, nous les voyons grandir, travailler, mourir. Ces images mettent en évidence deux acteurs principaux : les cellules gliales, responsables de l'architecture et du nettoyage du cerveau, et les neurones qui ont pour fonction de communiquer en produisant des signaux. Un voyage dans le moi le plus intime.

GénériqueAuteurs : Marcel Pouchelet, William Rostène et Jean-François Ternay Réalisateur : Jean-François Ternay Producteur : CNRS Audiovisuel Diffuseur : CNRS Diffusion

 

  DOCUMENT       canal-u.tv     LIEN 

PHOTON

il y a 5 mois

photon
(de électron)


Quanton spécifique de la lumière, véhicule des interactions électromagnétiques.


Introduction
Les phénomènes électromagnétiques, allant de l'électricité et du magnétisme aux rayons X, en passant par les ondes radio et la lumière, ont été rassemblés dans un cadre théorique unique par James Clerk Maxwell vers 1865. Depuis cette date, les équations de Maxwell ont joué un rôle central dans l'histoire de la physique, et notamment dans l'origine et les développements de deux théories « révolutionnaires » apparues au début du xxe s. : la relativité et la mécanique quantique.
Une découverte essentielle, ayant marqué les débuts de ces deux théories, est le concept de « grain » ou quantum d'énergie lumineuse, devenu plus tard le photon. Pressenti par Max Planck en 1900, introduit réellement par Albert Einstein en 1905, le concept de photon s'est immédiatement révélé très fructueux dans l'interprétation de certaines expériences. Cependant, la notion de « grain » d'énergie lumineuse semblait alors totalement contradictoire avec les équations de Maxwell. Ces équations, qui prévoient l'existence d'ondes lumineuses, formaient pourtant une des bases les plus solides de la physique de la fin du xixe s.
La résolution de ces contradictions devait venir de la toute jeune mécanique quantique, grâce à laquelle Paul Dirac put effectuer en 1927 une synthèse entre les propriétés à la fois « ondulatoires » et « corpusculaires » que semble posséder le photon. La théorie de Dirac, développée ensuite sous le nom d'électrodynamique quantique, est aujourd'hui fondamentale pour la physique des hautes énergies, dont un résultat spectaculaire a été la mise en évidence des bosons intermédiaires Z0, W+ et W− au Cern en 1983. Par ailleurs, l'apparition du laser au début des années 1960 a conduit au développement rapide d'un nouveau champ de recherches, l'optique quantique, dans laquelle les propriétés quantiques de la lumière jouent un rôle essentiel. En particulier, il est maintenant possible d'observer directement les propriétés ondulatoires et corpusculaires d'un photon unique, matérialisant ainsi des concepts vieux de plus de cinquante ans.


Historique de la notion de photon
L'introduction du concept de photon ne s'est pas faite sans difficultés ; les étapes essentielles de ces débuts se situent entre 1900 et 1922.

Un matériau chauffé à une température suffisamment élevée émet de la lumière : il devient incandescent. Le spectre de la lumière émise, c'est-à-dire la répartition de l'énergie lumineuse en fonction de la fréquence (responsable de la couleur que nous voyons), devrait dépendre du matériau utilisé. Cependant, Gustav Kirchhoff montra en 1860, par un argument thermodynamique très général, que ce spectre dépend uniquement de la température – et non du matériau particulier – à condition que celui-ci soit parfaitement absorbant ; on parle alors de « corps noir ». Cette découverte déclencha un intense travail expérimental et théorique, afin, d'une part de réaliser concrètement un tel corps noir et de mesurer son spectre et, d'autre part, de calculer la loi inconnue ρ (ν, T) exprimant la quantité d'énergie rayonnée à la fréquence ν par un corps noir chauffé à la température T.
À la fin du xixe s., les méthodes de mesure de l'émissivité du corps noir avaient beaucoup progressé, mais les tentatives de calculs de ρ (ν, T) demeuraient infructueuses : deux lois différentes semblaient s'appliquer aux régions « basses fréquences » et « hautes fréquences » des spectres observés. Enfin, en 1900, Planck parvenait à la bonne formule par une démarche d'abord intuitive. En fait, le caractère révolutionnaire de cette découverte apparut réellement lorsque Planck parvint à justifier rigoureusement sa formule, en admettant que les échanges d'énergie entre la lumière et le matériau s'effectuaient par quanta, c'est-à-dire par « paquets » indivisibles. La valeur du quantum d'énergie, dépendant de la fréquence ν, est égale à hν, où h est une constante universelle, maintenant baptisée « constante de Planck ».
Rien, dans la physique de cette époque, ne pouvait justifier l'hypothèse de Planck : la loi d'émissivité du corps noir, immédiatement confirmée par l'expérience, ouvrait donc la voie à des théories entièrement nouvelles.
Einstein et l'effet photoélectrique

En 1905, le mystère des quanta de Planck restait entier ; on ignorait si la lumière, les atomes, ou seulement les échanges d'énergie devaient être quantifiés. C'est alors qu'Einstein proposa que la lumière elle-même soit formée de quanta (qui devaient être baptisés photons seulement en 1926) ; cette hypothèse permettait d'interpréter de façon simple l'effet photoélectrique.
Cet effet, connu depuis la fin du xixe s., consiste en l'émission d'électrons par une plaque métallique éclairée par un faisceau lumineux. Deux observations semblaient défier toute explication : tout d'abord, l'effet n'existe que pour des fréquences lumineuses ν supérieures à une certaine fréquence seuil νs ; ensuite, l'énergie cinétique des électrons émis dépend de la fréquence, c'est-à-dire de la couleur, et non de l'intensité de la lumière utilisée. L'interprétation fournie par Einstein fut alors la suivante : la lumière est formée de grains d'énergie hν et l'absorption d'un de ces grains provoque l'émission d'un électron par la plaque métallique. L'énergie cinétique Ec communiquée à l'électron est alors l'énergie hν, diminuée d'une quantité fixe Ws nécessaire pour arracher l'électron au matériau, ce qui se représente par l'équation : 
Ec = hν − Ws
Cette équation très simple rend compte de tous les faits expérimentaux observés : 
– l'énergie cinétique Ec d'un électron émis ne dépend pas de l'intensité de la lumière (c'est-à-dire du nombre de photons) mais de sa fréquence ; Ec augmente du côté « bleu » du spectre visible (hautes fréquences) ; 
– pour que l'électron soit émis, l'énergie Ec doit être positive ; il existe donc un seuil à l'effet photoélectrique, c'est-à-dire une valeur minimum hνs = Ws en dessous de laquelle aucun électron n'est émis.
Le seuil dépend du métal utilisé ; les valeurs les plus basses de hνs sont obtenues pour les métaux alcalins.
Des expériences réalisées par Robert Millikan, en 1915, confirmèrent toutes ces prédictions.
L'énergie seuil fut mesurée pour plusieurs métaux, et la valeur de h obtenue par ces expériences se révéla être en très bon accord avec celle obtenue par Planck à partir de la loi d'émissivité du corps noir : on pouvait donc penser que le photon allait avoir gain de cause. En fait, rien n'était encore joué, puisque Millikan et, avec lui, de nombreux autres physiciens de renom rejetaient l'interprétation de l'effet photoélectrique donnée par Einstein. Ce conflit provenait de la contradiction apparente qui existe entre le concept de photon – particule de lumière – et les équations de Maxwell de l'électromagnétisme – qui impliquent l'existence d'ondes lumineuses.


Compton et la diffusion électron-photon

Cependant, une nouvelle expérience en faveur du photon « corpusculaire » devait emporter l'adhésion de la communauté des physiciens : il s'agit de l'étude par Arthur Compton de la « collision » d'un électron et d'un photon. Les équations de l'effet Compton décrivent le choc d'un électron et d'un photon comme un choc de particules matérielles, en assurant la conservation de l'énergie et de la quantité de mouvement. Le résultat du calcul est que le photon est dévié, et sa fréquence légèrement changée. La valeur théorique de ce décalage de fréquence fut confirmée expérimentalement par Compton, ce qui imposa définitivement la nécessité du concept de photon.
En 1918, Planck reçut le prix Nobel pour la découverte du quantum d'action ; Einstein, en 1922, pour son interprétation de l'effet photoélectrique ; Compton, en 1927, pour la découverte de l'effet qui porte son nom. Peu de temps après, les progrès réalisés par la théorie quantique allaient permettre une description synthétique des propriétés à la fois « ondulatoires » et « corpusculaires » de la lumière.
Le photon, particule élémentaire
Fiche d’identité du photon
Le photon est une particule de masse nulle, de spin unité ; son énergie est E = hν, et sa quantité de mouvement est p = (h/2π) k où k est le vecteur d'onde associé à la particule.
Interactions photon-matière
Les interactions des photons avec des atomes ou d'autres particules peuvent s'accompagner de transfert d'énergie, d'impulsion ou de moment cinétique. Par exemple, des photons polarisés circulairement peuvent transférer leur moment cinétique à une vapeur atomique : c'est le principe du pompage optique, inventé par Alfred Kastler en 1950, utilisé notamment dans les lasers.
De même, la pression de radiation exercée par un faisceau lumineux sur des atomes peut être utilisée pour ralentir ou dévier un jet d'atomes. Ces phénomènes sont observés dans le domaine des basses énergies, c'est-à-dire pour des valeurs de hν très inférieures à l'énergie de masse mec2 d'un électron. Lorsque hν devient plus grand que 2 mec2 (domaine des rayons γ), l'électrodynamique quantique relativiste prédit la possibilité pour un photon de se transformer en une paire électron-positon (le positon, également appelé positron, étant l’antiparticule de l’électron) ; la réaction inverse (annihilation d'une paire) est possible également, et de telles réactions sont couramment observées dans les accélérateurs de particules.


Le photon dans le modèle standard
Dans les théories contemporaines, le photon est le médiateur de l'interaction électromagnétique, c'est-à-dire que cette interaction est décrite comme un échange de photons. À très haute énergie, Steven Weinberg, Abdus Salam et Sheldow Glashow ont montré que l'interaction électromagnétique s'unifie avec l'interaction faible, responsable de certaines réactions de désintégration. Les médiateurs de cette interaction électrofaible sont les bosons intermédiaires Z0, W+ et W−.

 

DOCUMENT   larousse.fr    LIEN

 

LANGAGE

il y a 5 mois

 langage
Capacité, observée chez tous les hommes, d'exprimer leur pensée et de communiquer au moyen d'un système de signes vocaux et éventuellement graphiques (la langue). [Voir également troubles du langage.]


LINGUISTIQUE

Le langage est un système qui a pour finalité de réaliser un message d'un émetteur vers un récepteur. Cela permet d'englober plusieurs modes de communication formalisés : langue naturelle, langages artificiels (de programmation informatique, par exemple), ou tout autre code : Code de la route, langage des fleurs, etc. Chaque langue naturelle est un code original propre à l'espèce humaine ; les langages artificiels proviennent de simplifications et de conventions à partir des langues naturelles.


La hiérarchisation des signes


Ce système est dit « articulé » (A. Martinet), ce qui signifie que tout énoncé langagier doit pouvoir s'analyser à deux niveaux. Au niveau de la production de chaque langage, chaque unité s'articule en deux unités non significatives mais distinctives, par exemple entre le phonème (son émis) et le morphème (forme minimale de signification ; exemple : le pluriel en -s), entre le morphème et le syntagme (unité dans une organisation phrastique ; exemple : « le chien » dans « le chien dort »), etc. La combinaison des morphèmes, liée à la syntaxe (L. Bloomfield, Z. Harris), et l'assemblage des syntagmes forment une structuration hiérarchisée d'éléments constituants. C'est là que se situe la spécificité du langage humain, par opposition à un « langage » animal, dont on ne peut parler que par métaphore : les abeilles communiquent, mais leur mode de communication est exclusivement signalétique ; ce n'est donc pas un langage articulé.
Différentes écoles ont tenté de décrire l'intégration systémique du langage humain : les structuralistes (F. de Saussure, L. T. Hjelmslev) ont mis l'accent sur les oppositions et les complémentarités dans les distributions de phonèmes, morphèmes, lexèmes, etc., d'où résulterait le fonctionnement du système langagier. Les dernières théories de N. Chomsky ont permis d'avancer l'hypothèse d'une organisation en modules, c'est-à-dire en petites unités de traitement distribuées en réseaux réglés pour permettre la communication de l'information.


Les fonctions du langage

La notion de fonction du langage a été mise en valeur par l'école de Prague. La fonction principale est celle de communication (dite aussi référentielle ou cognitive). Cependant, selon les caractères de la communication, il existe différentes fonctions du langage. R. Jakobson a distingué six fonctions qui, dans toute langue, se rapportent chacune à l'un des pôles fondamentaux de la communication linguistique. Toute communication fait en effet intervenir six facteurs : l'émetteur, le destinataire, le contexte, ou référent, le code commun à l'émetteur et au destinataire, le canal (le support physique) de la communication, le message.
Le linguiste distingue ainsi la fonction émotive, qui centre le message sur l'émetteur, le locuteur (exemple : « Quel sale temps ce week-end ! »), la fonction conative, qui vise à influencer le destinataire (exemple : « Corrige-moi si je me trompe » ; « Viens ici »!), la fonction référentielle (ou dénotative, ou cognitive), qui renvoie au contexte (exemple : « Le chien est un animal »), la fonction phatique, qui renvoie au canal ou au contact (exemple : « Allo, ne coupez pas »), la fonction métalinguistique, qui renvoie au code lui-même (exemple : « Porte-manteau est invariable ») la fonction poétique, qui concerne le message en lui-même.


Les universaux du langage

On peut dénombrer dans le langage un certain nombre d'universaux, parmi lesquels on peut distinguer des universaux substantiels et des universaux conditionnels.
Dans la catégorie des universaux substantiels entreraient le prédicat (ce qu'on dit d'un sujet dans un énoncé quelconque) ainsi que les mots fonctionnels. En effet, dans toutes les langues du monde existent des formes (noms ou verbes) susceptibles de recevoir la fonction prédicative et se trouvent également des morphèmes ne désignant rien par eux-mêmes (ils ne renvoient pas aux choses), mais dont la fonction est d'établir tel ou tel rapport entre les unités du lexique : les prépositions, les postpositions, les conjonctions, etc.
Les universaux conditionnels mettent en relation deux phénomènes : ils sont formulés sous une forme d'implication (si p, alors q). Ainsi, dans les langues à prépositions, le génitif suit presque toujours le nom régissant ; dans les langues à postpositions, il le précède presque toujours. Les langues à ordre PSO (prédicat-sujet-objet) sont toujours à prépositions (l'arabe, par exemple). Avec une fréquence qui ne peut être due au hasard, les langues à ordre SOP (sujet-objet-prédicat) sont postpositionnelles (le japonais, les langues altaïques, le birman, par exemple). [→ langue.]

 

  DOCUMENT   larousse.fr    LIEN

Découverte d'un système « immunitaire » chez les virus géants

il y a 6 mois

Paris, 11 mars 2016
Découverte d'un système « immunitaire » chez les virus géants

Des chercheurs de l'unité de recherche sur les maladies infectieuses tropicales émergentes (Aix-Marseille Université / CNRS / IRD / INSERM) – située à l'IHU Méditerranée Infection - avec le soutien de l'AP-HM - viennent de mettre en évidence l'existence d'un système de défense chez les virus géants capable d'empêcher l'infection de ces derniers par des virophages. Un virophage étant lui-même un virus capable d'infecter d'autres virus. Il s'agit de la première démonstration qu'un virus peut avoir un système « immunitaire » de défense contre un autre virus. Ces travaux viennent de faire l'objet d'une publication dans Nature.
L'équipe du Pr Didier Raoult a été la première à rapporter l'existence de virus géants en 2004 (Raoult et al. 2004). Mimivirus est ainsi le premier virus géant découvert et quelques années plus tard cette même équipe décrit une nouvelle entité, les virophages qui sont des virus capables d'infecter d'autres virus (La Scola et al. 2008). Depuis leur découverte, les virus géants ont révélé un certain nombre de caractéristiques uniques qui vont à l'encontre de  la définition classique d'un virus, comme par exemple leur taille importante, la taille et la complexité de leur génome, leur infection possible par des virophages et la présence de transpovirons (Desnues et al. 2012) . 
Dans cette étude publiée dans le journal Nature, les chercheurs ont observé qu'un groupe parmi les Mimivirus (appelé lignées A) a développé une résistance contre l'infection par un virophage nommé Zamilon, alors que les Mimivirus des lignées B et C sont sensibles à l'infection par ce virophage. C'est en essayant de comprendre ce mécanisme de résistance au virophage si particulier et unique dans le monde viral que les chercheurs ont trouvé la présence d'une  séquence répétée d'ADN de Zamilon qui sert à accrocher le virophage uniquement dans la lignée A. Ce complexe a ainsi été nommé MIMIVIRE (MIMIvirus VIrophage Résistance Elément) et présente des similarités fonctionnelles avec le système de défense CRISPR-Cas existant jusqu'alors uniquement chez les bactéries et les archées et comportant une enzyme déroulant l'ADN et une autre le coupant. 
L'inactivation du complexe MIMIVIRE a permis de restaurer la susceptibilité de Mimivirus à l'infection par le virophage. Les protéines partenaires comprises dans ce complexe MIMIVIRE sont impliquées dans la dégradation spécifique de l'ADN étranger. Le système de défense virale, MIMIVIRE, confère ainsi une immunité aux virus géants qui ont pu intégrer dans leur génome l'ADN du virophage infectant. 
Ceci est la première démonstration qu'un virus peut avoir un système « immunitaire » de défense contre un autre virus et renforce l'idée d'un quatrième monde des microbes.

 

 DOCUMENT         cnrs        LIEN 

Imiter les virus pour livrer des médicaments au coeur des cellules

il y a 6 mois

Paris, 27 août 2015
Imiter les virus pour livrer des médicaments au coeur des cellules

Les virus ont une aptitude à détourner le fonctionnement des cellules pour les infecter. En s'inspirant de leur mode d'action, des chercheurs du CNRS et de l'Université de Strasbourg ont conçu un « virus chimique » capable de franchir la double couche de lipides qui délimite les cellules, puis de se désagréger dans le milieu intracellulaire afin d'y libérer des molécules actives. Pour cela, ils ont utilisé deux polymères de leur conception, qui ont notamment des capacités d'auto-assemblage ou de dissociation selon les conditions. Ces travaux, fruit d'une collaboration entre chimistes, biologistes et biophysiciens, sont publiés dans l'édition du 1er septembre de la revue Angewandte Chemie International Edition.
Les progrès biotechnologiques donnent accès à un trésor de molécules ayant un potentiel thérapeutique. Beaucoup de ces molécules sont actives uniquement à l'intérieur des cellules humaines et restent inutilisables car la membrane lipidique qui délimite les cellules est une barrière qu'elles ne peuvent pas franchir. L'enjeu est donc de trouver des solutions de transfert aptes à traverser cette barrière. 

En imitant la capacité des virus à pénétrer dans les cellules, des chimistes du Laboratoire de conception et application de molécules bioactives (CNRS/Université de Strasbourg) cherchent à concevoir des particules à même de libérer des macromolécules actives uniquement au sein des cellules. Pour cela, ces particules doivent obéir à plusieurs contraintes souvent contradictoires. Elles doivent être stables dans le milieu extracellulaire, capables de se lier aux cellules afin d'être internalisées mais être plus fragiles à l'intérieur des cellules pour libérer leur contenu. Avec deux polymères de leur conception, les chercheurs ont réussi à construire un "virus chimique" remplissant les conditions nécessaires pour transférer directement des protéines actives dans la cellule.

Concrètement, le premier polymère (pGi-Ni2+) sert de support aux protéines, qui s'y fixent. Le second polymère (πPEI), récemment breveté, encapsule cet ensemble grâce à ses charges positives qui se lient aux charges négatives du pGi-Ni2+. Les particules obtenues (30-40 nanomètres de diamètre) sont capables de reconnaitre la membrane entourant les cellules et de s'y lier. Cette liaison active une réponse cellulaire : la nanoparticule est enveloppée par un fragment de membrane et entre dans un compartiment intracellulaire appelé endosome. Alors qu'ils étaient stables à l'extérieur de la cellule, les assemblages sont ébranlés par l'acidité qui règne dans ce nouvel environnement. Par ailleurs, cette baisse de pH permet au polymère πPEI de faire éclater l'endosome, ce qui libère son contenu en molécules actives. 

Grâce à cet assemblage, les chercheurs ont pu concentrer suffisamment de protéines actives à l'intérieur des cellules pour obtenir un effet biologique notable. Ainsi, en transférant une protéine appelée caspase 3 dans des lignées de cellules cancéreuses, ils ont réussi à induire 80 % de mort cellulaire1. 

Les résultats in vitro sont encourageants, d'autant que ce "virus chimique" ne devient toxique qu'à une dose dix fois supérieure à celle utilisée dans cette étude. Par ailleurs, des résultats préliminaires chez la souris ne font pas état de surmortalité. L'élimination par l'organisme des deux polymères reste cependant une question ouverte. La prochaine étape consistera à tester ce système de manière approfondie in vivo, chez l'animal. A court terme, ce système servira d'outil de recherche pour vectoriser2 dans les cellules des protéines recombinantes et/ou chimiquement modifiées. A long terme, ce travail pourrait ouvrir le champ d'application des protéines pharmaceutiques à des cibles intracellulaires et contribuer à la mise au point de médicaments novateurs. 

Ces travaux ont été rendus possibles par la collaboration de biophysiciens et de biologistes. Les compétences en cryomicroscopie électronique de l'Institut de génétique et de biologie moléculaire et cellulaire (CNRS/Université de Strasbourg/Inserm) et l'expertise en microscopie à force atomique du Laboratoire de biophotonique et pharmacologie (CNRS/Université de Strasbourg) ont permis de caractériser les assemblages moléculaires de manière très précise. Le laboratoire Biotechnologie et signalisation cellulaire (CNRS/Université de Strasbourg) a quant à lui fourni les protéines recombinantes encapsulées dans le virus artificiel.

 

 DOCUMENT         CNRS         LIEN

LE NIL

il y a 6 mois

Le Nil


Principal fleuve d'Afrique, drainant un bassin d'environ 3 millions de km2 et long de 6 700 km (5 600 km depuis le lac Victoria), et qui rejoint la mer Méditerranée par un vaste delta.
Le fleuve a été appelé Hâpî par les Pharaons, Chrysonoas par les Grecs, Bahr (« mer ») par les Arabes.
GÉOGRAPHIE
1. Le cours du Nil

Le fleuve trouve son origine dans un cours d'eau du Burundi, le Kasumo, qui devient, dans son cours inférieur, la Kagera, tributaire du lac Victoria. Cette mer intérieure (près de 70 000 km2), perchée à 1 133 m, s'écoule vers le Nord par le Nil Victoria, qui traverse le lac Kioga entre deux chutes. Il pénètre ensuite dans le lac Albert, alimenté par la Semliki, et en sort sous le nom de Bahr el-Gebel, « rivière de la Montagne », puis entre dans la plaine du Soudan du Sud. Les inondations, la multiplication des bras, la végétation aquatique et une évaporation intense qui prélève près de la moitié de la masse liquide caractérisent cette immense cuvette marécageuse des « sadd », qui reçoit en outre le Bahr el-Ghazal. Sortant du lac No, le fleuve, qui prend alors le nom de Nil Blanc (Bahr el-Abiad), reçoit le Sobat (rive droite), reprend la direction du nord et entre au Soudan.

À Khartoum, il reçoit le Nil Bleu (Bahr el-Azrak) et, dès lors, on lui donne parfois le nom de Grand Nil. Il reçoit encore l'Atbara, toujours sur la rive droite, et travers ensuite 2 700 km de désert, en Nubie, puis continue son cours en Égypte, passe au Caire, à la tête du delta, avant de rejoindre la mer Méditerranée.
2. Le profil du Nil

Le profil longitudinal du Nil n'est pas régularisé dans le cours supérieur, mais, à l'entrée des marais des « sadd », la pente devient très faible, jusqu'au-delà de Khartoum (3,5 cm par km). En aval, une série d'accidents séparent des biefs à pente douce : ce sont les fameuses « cataractes » numérotées de 1 à 6 en remontant le cours du fleuve à partir d'Assouan. En fait, ce ne sont que des rapides qui, souvent, n'interdisent la navigation qu'en basses eaux. Peu après la deuxième cataracte, la vallée inférieure constitue la partie habitable de l'Égypte. Le haut-barrage d'Assouan régularise son cours inférieur et créé un vaste lac artificiel, long de 500 km (en partie au Soudan). Passé Le Caire, le Nil entre dans son delta, construction postglaciaire qui a continué de progresser pendant la période historique et dont l'extension est à présent bloquée par la raideur de la pente sous-marine et le fort courant littoral. Le fleuve aboutit à la mer par les branches de Rosette et de Damiette, aux modules respectifs de 1 076 et 508 m3s.
Le bassin du Nil s'étend de l'équateur à la Méditerranée et inclut des parties de dix États : Burundi, Rwanda, Tanzanie, Ouganda, Kenya, République démocratique du Congo, Soudan du Sud, Éthiopie, Soudan, Égypte.
3. Le régime du Nil

En Égypte, le Nil a un régime simple et plutôt régulier : le débit, minimal au début du mois de juin, augmente jusqu'à la fin de septembre pour décroître ensuite. Ce régime est pourtant le résultat d'une combinaison complexe d'affluents répartis sur 35 degrés de latitude. Le Nil Blanc, malgré un appauvrissement dans les « sadd », a encore beaucoup d'eau en saison sèche et son régime est pondéré. Le Nil Bleu et l'Atbara sont, au contraire, excessifs : au début de septembre, ils apportent au Nil plus de 90 % de son débit moyen de 8 000 m3s mais, en avril, le Nil Bleu est fort réduit (131 m3s) et, pendant cinq mois, de janvier à mai, l'Atbara est à sec. La fameuse crue du fleuve est due à la montée des affluents éthiopiens, dont les eaux violentes érodent les massifs volcaniques auxquels elles arrachent des terres fertiles. Il en résultait jadis l'inondation de la vallée égyptienne, à laquelle échappaient les villages construits sur des buttes. Le sol emmagasinait une réserve naturelle d'eau, tandis que la surface recevait quelques millimètres de limon régénérateur. Dès novembre, le fleuve étant rentré dans son lit mineur, on procédait aux semailles dans la boue. Cependant, si les hautes eaux ont toujours lieu dans la même saison, elles sont parfois faibles et tardives, parfois hautes et dévastatrices. Ainsi le débit moyen annuel du Nil à Assouan a pu varier de 4 341 m3s en 1879 à 1441 m3s en 1913, alors que la moyenne, pour 80 ans, est de 2 922 m3s. Les nilomètres permettaient de noter, dès l'Antiquité, la hauteur de la crue et même de faire des pronostics.
4. Les travaux sur le Nil
Depuis le xixe s., le régime du Nil a été sensiblement transformé par de grands travaux : édification de barrages pour relever le plan d'eau à la tête des canaux (notamment barrages du Delta, d'Assiout, de Nag Hamadi, de Esnèh près de Louqsor) et création de barrages-réservoirs pour améliorer le débit entre février et juillet (barrages d'Assouan, du Djebel Aulia, de Sennar, d'Owen Falls). Enfin, à proximité d'Assouan, le Haut-Barrage, construit de 1960 à 1964 et dont la mise en eau a été achevée en 1972, est l'un des plus imposants du monde. L'intérêt, capital pour l'Égypte, d'un développement de l'irrigation et l'avantage d'une production hydroélectrique dans un pays mal pourvu de sources d'énergie sont à l'origine de cet ouvrage. Le Nil est enfin un fleuve navigable par biefs, entre les rapides ou les chutes, et son cours égyptien est utilisé par une batellerie très active.
4.1. Les premiers barrages
La vallée fut équipée de barrages d'élévation à Assiout (1902), à Esnèh (1909) et à Nag Hamadi (1930). Ces travaux visaient surtout à étendre la culture du coton, pour approvisionner les filatures anglaises. Mais l'extension de l'irrigation pérenne fut handicapée par le manque d'eau pendant l'étiage, alors que la plus grande partie de l'eau de la crue se perdait dans la Méditerranée. Les premiers barrages-réservoirs en Égypte et au Soudan permirent d'augmenter le niveau de l'eau disponible pendant l'étiage : le premier barrage d'Assouan (1898-1902) voit sa capacité passer de 1 à 5 milliards de mètres cubes, grâce à deux surélévations ; le barrage de Sennar (1925), sur le Nil Bleu, sert à irriguer le vaste périmètre cotonnier de la Gezireh – en échange, le Soudan renonce en 1929 à toute ponction entre janvier et juillet ; le barrage du Djebel Aulia (1929-1933) retient les eaux du Nil Blanc durant la crue du Nil Bleu.
4.2. Le haut barrage d'Assouan
Les besoins augmentant plus vite que les disponibilités, la solution proposée est celle d'un nouveau barrage à Assouan, qui retiendrait toute la crue dans un réservoir d'une capacité maximale de 156 milliards de mètres cubes, à cheval sur l'Égypte et le Soudan. L'eau du Nil est partagée, en 1959, sur la base de 55,5 milliards de mètres cubes pour l'Égypte et 18,5 milliards pour le Soudan (les pertes du lac-réservoir représentent 10 milliards de mètres cubes). Le barrage, construit avec l'aide soviétique, est inauguré en 1970, quelques semaines après la mort du président Nasser, qui en avait été l'initiateur. Cent mille villageois nubiens durent quitter leur foyer submergé.
Le haut barrage d'Assouan a permis la régulation pluriannuelle du débit, la production d'électricité, la bonification d'étendues désertiques sur les marges de la vallée et du Delta (400 000 ha), le passage à l'irrigation pérenne des derniers bassins de Haute-Égypte (300 000 ha), l'extension des cultures grosses consommatrices d'eau, comme la canne à sucre et le riz. Mais le haut barrage a aussi pour effet de retenir le limon de la crue, réduisant à néant la pêche côtière, érodant les berges et le littoral, et privant le sol de sa fertilité. Les paysans arrosent trop, provoquant l'élévation de la nappe phréatique et la salinisation des terres. La mise en valeur du désert n'a pas compensé la perte des meilleurs sols devant la croissance urbaine. Enfin, la croissance démographique et l'augmentation constante des besoins ont contraint l'Égypte à consommer plus que sa part, tandis que le Soudan entreprenait de se doter de ses propres aménagements.
4.3. Les nouveaux projets
Sur le Nil Blanc, le percement du canal de Jongleï, long de 380 km et destiné à drainer une partie des sadd, commence en 1978. Cofinancé par l'Égypte et le Soudan, il devait fournir à chacun 3,5 milliards de mètres cubes d'eau supplémentaires par an. Mais la reprise de la guerre civile au Soudan a entraîné l'arrêt des travaux en 1983. C'est cependant le Nil Bleu qui détient le plus grand potentiel inexploité : il dispose de sites hydroélectriques prometteurs et donne à l'Éthiopie, qui en a la maîtrise, les clés du destin du Soudan et surtout de celui de l'Égypte. Devant la pression démographique croissante sur les vieilles terres érodées du plateau, le gouvernement éthiopien a mis en chantier de vastes projets agricoles dans les vallées du Nil Bleu, de la Sobat et de l'Atbara.
En 2013, l'Éthiopie a commencé les travaux de détournement du cours du Nil Bleu en vue de la construction du barrage de la Renaissance, destiné à la production d'hydroélectricité.
5. Les accords de partage des eaux du Nil
Plusieurs accords ont été signés entre les pays riverains pour le partage des eaux du Nil.
5.1. Les accords de 1929 et de 1959
Les accords de 1929 et de 1959 étaient favorables à l'Égypte. Seuls deux pays peuvent disposer du débit du Nil : l'Égypte et le Soudan (qui englobe alors le Soudan du Sud). Les deux tiers reviennent à l'Égypte, 22 % au Soudan, tandis que l'Éthiopie ne reçoit rien. L'Égypte dispose d'un droit de veto sur tout projet sur le fleuve.
5.2. L'accord d'Entebbe, en 2010
L'accord d'Entebbe a été signé en 2010 par six pays de l'amont du fleuve : l'Éthiopie, le Kenya, la Tanzanie, le Rwanda, le Burundi et l'Ouganda. Il conteste les accords de 1929 et de 1959. L'Égypte a rejeté cet accord.
HISTOIRE
1. Le Nil dans l'Antiquité égyptienne : berceau d’une civilisation
L'agriculture apparaît dans la basse vallée du Nil il y a environ 7 000 ans. Il s'agit tout d'abord de cultures pratiquées dans le limon laissé par la décrue du fleuve ; puis, vers 3400 avant notre ère, on note une organisation supravillageoise qui permet de retenir l'eau dans des bassins.
L'unification du Delta et de la vallée égyptienne est réalisée vers 3300 avant J.-C., et assure la prospérité du pays, grâce au contrôle centralisé de la crue et de l'activité agricole, durant l'Ancien, le Moyen et le Nouvel Empire. En revanche, les périodes de division (première période intermédiaire, fin du Nouvel Empire) ou d'occupation étrangère entraînent désordre et famine.
1.1. La civilisation koushite
Au-delà de la 1ere cataracte sont entreprises de fructueuses expéditions, qui aboutissent parfois à une présence égyptienne permanente. Mais dès le IVe millénaire est apparue au Soudan actuel la civilisation koushite, dont la capitale est Kerma, en Nubie.
Colonisée au Moyen Empire, la Nubie recouvre son indépendance lors de la deuxième période intermédiaire et de l'occupation de l'Égypte par les Hyksos.
1.2. Napata, Méroé, Aksoum
Sous le Nouvel Empire, Thoutmosis III la reconquiert; mais elle s'émancipe à nouveau vers l'an 1000. Ce sera pourtant par elle que l'unité sera rétablie sous la XXVe dynastie, dite éthiopienne, des pharaons noirs de Napata ; vers 700 avant J.-C., ils étendent leur pouvoir jusqu'à la Méditerranée pendant un siècle, puis le royaume de Napata, replié au sud de la 1ere cataracte, transfère sa capitale à Méroé, entre l'Atbara et le Nil Bleu. La civilisation méroïtique, où le respect des traditions égyptiennes s'allie au fonds africain, est maintenue jusqu'au iiie siècle de notre ère, avant de disparaître sous les coups du puissant royaume d'Aksoum, qui contrôle le haut bassin du Nil Bleu.
1.3. Le Nil, bon génie des Égyptiens
Le Nil était vénéré par les Égyptiens comme un bon génie, envoyé par les dieux ; son nom était Hâpî. On localisa d'abord sa retraite dans une grotte située au milieu de la première cataracte ; il s'agit là, en fait, d'une fiction mythologique, les Égyptiens sachant très bien que la Basse-Égypte, plus avancée en civilisation, bénéficiait d'une irrigation régularisée pendant la période de l'inondation annuelle, alors que la Haute-Égypte laissait passer sans l'endiguer un flot dévastateur.
Après que la Haute-Égypte eut été dotée à son tour d'un système d'irrigation, on lui appliqua le même cadre mythologique, une seconde retraite étant assignée au bon génie Nil. Lorsque l'Égypte fut unifiée, on représenta sur les monuments et on vénéra deux Nils, le premier étant censé prendre sa source en amont d'Éléphantine, le second, à Hélouân, en amont d'Héliopolis.
2. L'ère chrétienne et la conquête arabe
Des royaumes chrétiens, berceau d'une civilisation florissante, se fondent en Abyssinie à partir du ive siècle, et en Nubie à partir du vie siècle.
La conquête arabe de l'Égypte, en 641 rend plus difficiles les contacts de ces royaumes avec les centres de la chrétienté. Le royaume d'Aloa, au confluent des deux Nils, subsiste pourtant jusqu'au début du xvie siècle, et le christianisme éthiopien, demeuré monophysite, comme celui d'Égypte, se maintient jusqu'à nos jours. L'islam ne provoque pas l'unification de la vallée du Nil, même si en 1504 le sultanat noir des Fundji s'établit sur les rives du Nil soudanais, avec sa capitale à Sennar.
Dans la région des Grands Lacs, c'est au xiiie-xive siècle que les pasteurs tutsis s'installent au Rwanda, et en soumettent les cultivateurs hutus et les chasseurs pygmées, tandis que l'Ouganda est le siège de quatre royaumes : Bouganda, Toro, Ankolé et Bounyoro, le plus puissant. Mais au XVIe siècle, le Bouganda, en s'alliant aux commerçants arabes de la côte, prend le dessus et continue son expansion jusqu'à l'occupation britannique.
3. La découverte du Nil
Le réseau supérieur du fleuve est demeuré longtemps inconnu. Ce sont les récits des marchands qui permirent l'établissement des premières cartes, où l'on note des « monts de la Lune », vers les sources. Néron envoya deux centurions à la recherche de celles-ci ; ils furent arrêtés par les sadd (ilôts de végétation formant barrage).
Du xiiie au xviiie siècle, l'Éthiopie est parcourue, et le Nil Bleu repéré ; on le considérait comme le fleuve principal.
Au xixe siècle, les expéditions ordonnées par Méhémet-Ali atteignent, en remontant le Nil Blanc, Gondokoro, en amont des sadd. Partant de l'océan Indien, l’explorateur John Hanning Speke, avec sir Richard Francis Burton puis avec James Augustus Grant, atteint le lac Victoria ; Speke le contourne pour toucher à Gondokoro (1863). Un long travail de reconnaissance, de cartographie et d'hydrologie commença alors.
À la suite de l'ouverture du canal de Suez, la Grande-Bretagne impose son protectorat sur l'Égypte (1882), tandis qu'au Soudan le Mahdi s'empare de Khartoum (1885) et fonde un empire qui dure treize ans.
L'Éthiopie est également menacée, mais les troupes italiennes sont écrasées à Adoua en 1890. Les visées françaises et britanniques se heurtent à Fachoda (1898), sur le Nil Blanc : la Grande-Bretagne a décidé de reconquérir le Soudan pour faire la jonction avec ses possessions d'Afrique orientale, alors que la France espère atteindre la mer Rouge (→ affaire de Fachoda).

 

 DOCUMENT   larousse.fr    LIEN

 

Ramsès II

il y a 6 mois

Ramsès II

Troisième pharaon de la XIXe dynastie (1301-1236 avant J.-C.).
Le règne de Ramsès II se situe au début de la seconde moitié du Nouvel Empire (1580-1085 avant J.-C.), la dernière période de gloire et de prospérité de l'Égypte ancienne. À cette époque de l'histoire de l'humanité, l'Égypte est encore une grande puissance qui rayonne sur tout le Proche-Orient et qui, bien au-delà, mène une politique ouvertement expansionniste en Afrique et en Asie.
Un monarque guerrier

Fils de Seti Ier, Ramsès II est le troisième souverain de la XIXe dynastie, qui a pris le pouvoir vers 1314 avant J.-C., soixante ans après le règne d’Akhenaton. Les années troublées qui suivent directement celui-ci (règnes de Smenkhkarê, de Toutankhamon, de Aï) sont mal connues ; mais on sait que, vers 1339 avant J.-C., le général Horemheb, qui a su conserver l'intégrité des frontières de l'Empire menacé, est désigné comme roi par un oracle d'Amon ; il restaure l'Empire et l'État. Sans héritiers, il adopte pour successeur un général originaire, semble-t-il, de Tanis, Ramsès Ier, qui, très vite, associe son fils Seti Ier au trône. Avec cette dynastie de monarques guerriers, provenant des marches de l'Asie, la politique égyptienne devient résolument impérialiste, l'idéologie se fait violente : Amon rétablira par la terreur la domination du roi, qui sera « celui qui s'élance sur ses ennemis comme un lion terrible, qui entasse leurs cadavres auprès de leurs vallées, qui les renverse dans leur sang… ».
La lutte contre les Hittites
Quand Ramsès II monte sur le trône, la situation extérieure est de nouveau menaçante. Il y a un danger principal : le royaume du Hatti (peuplé par les Hittites, et constitué dans la région des plateaux de l'Anatolie actuelle lors des invasions indo-européennes du IIe millénaire avant J.-C.) et son actif souverain, Mouwattali. Une intense activité diplomatique a permis à celui-ci de nouer un réseau d'alliances en Asie Mineure, constituant ainsi un bloc de puissance politique rival du « groupe » égyptien ; de plus, à l'hégémonie économique de l'Égypte en Méditerranée, le Hatti oppose maintenant une politique concurrente en Égée, à laquelle la puissance mycénienne (succédant à celle de la Crète) donne une importance nouvelle ; les commerçants des îles égéennes se tournent naturellement vers le Hatti, installé sur les côtes occidentale et méridionale de l'Asie Mineure. La clef de cette double hégémonie est la Syrie et les ports phéniciens ; Ramsès et Mouwattali se préparent ouvertement à la lutte.
Ramsès, militaire avisé, installe ses bases et renforce ses armées. Il transporte d'abord sa résidence à Pi-Ramsès, à la frontière orientale de l'Égypte. Cette « remontée » de la capitale vers le nord est un fait important, tant du point de vue économique (en effet, les villes du Delta oriental, Tanis, Bubastis, Athribis, sont alors de grands centres commerciaux, et la nouvelle résidence du souverain se trouve ainsi au point de jonction des routes qui unissent le Delta aux ports syro-phéniciens et à la mer Rouge) que du point de vue politique (à la capitale religieuse sise à Thèbes, où le clergé d'Amon est puissant, s'oppose désormais une autre capitale, centre politique, éloignée de l'emprise cléricale) ; de plus, Pi-Ramsès (Tanis ? Qantir ?), aux frontières mêmes de l'Asie, prend figure de capitale d'Empire, mi-égyptienne, mi-asiatique (ainsi, le quartier oriental de la ville est consacré à la grande déesse-mère de l'Asie antérieure, Ishtar, et le quartier occidental à celle du Delta, Ouadjet). Cette décision répond avec évidence à un souci de politique impérialiste raisonnée, et a l'avantage d'offrir une base commode pour les opérations militaires.
Dans le même esprit, Ramsès II développe son armée. Aux trois divisions déjà existantes (placées sous le patronage des dieux Amon, Rê et Ptah), il en adjoint une quatrième, que protège Seth, dieu oriental (proche de Baal ou de Soutekh, guerriers asiatiques, et souvent assimilé à ceux-ci). Des troupes noires sont levées en Nubie (corps d'archers), et des mercenaires sont recrutés parmi les prisonniers de guerre (Shardanes, notamment). Dernière mesure de sagesse : des campagnes en Nubie et en Libye assurent la paix aux confins du sud et de l'ouest. Une guerre s'engage, qui va durer, suivant différentes phases, une vingtaine d'années.
Ramsès remonte jusqu'à l'Oronte et livre, devant Qadesh, une grande bataille connue grâce à des sources précises : notamment le Poème de Pentaour (reproduit sur plusieurs papyrus, copié en hiéroglyphes sur les murs des temples de Louqsor, de Karnak, d'Abydos) et le rapport officiel de la bataille (sculpté en bas reliefs, accompagnés de légendes, sur les murs de plusieurs sanctuaires : à Thèbes, Abydos, Abou-Simbel, entre autres). C'est une aventure héroïque : Ramsès II, déjà parvenu aux rives de l'Oronte, où l'attend Mouwattali près de Kadesh, ayant été trompé par de faux rapports d'espions (agents doubles) annonçant la retraite de l'armée hittite, précipite sa marche et franchit en partie le gué sur le fleuve, pour contourner la ville, et cela (rassuré qu'il est) sans prendre soin de couvrir ses flancs ; la division d'Amon a franchi la rivière, celle de Rê s'apprête à le faire, cependant que les divisions de Ptah et de Seth, à l'arrière, s'acheminent encore sur la route. Mais la trahison apparaît lorsque deux prisonniers hittites, interrogés… et bâtonnés, avouent la manœuvre perfide. Ramsès veut accélérer le regroupement de ses soldats, mais Mouwattali, qui a déjà massé ses 2 500 chars au bord du fleuve, fonce, coupe en deux l'armée égyptienne et pénètre, semble-t-il, jusque dans le camp de Ramsès. Celui-ci, guidé par Amon, réussit (d'après les textes égyptiens) l'héroïque exploit de rejeter, seul, l'ennemi en désordre : « Je t'invoque, ô mon père Amon ! Me voici au milieu de peuples si nombreux qu'on ne sait qui sont les nations conjurées contre moi, et je suis seul, aucun autre avec moi. Mes nombreux soldats m'ont laissé, aucun de mes charriers n'a regardé vers moi quand je l'appelais… Mais Amon vaut mieux pour moi qu'un million de soldats, que cent mille charriers, qu'une myriade de frères ou de jeunes fils… Amon surgit à mon injonction, il me tend la main, il pousse un cri de joie : "Face à face avec toi, Ramsès Meriamoun, je suis avec toi ! C'est moi ton père ! Ma main est avec toi… Moi, le fort, qui aime la vaillance, j'ai reconnu un cœur courageux…" Alors je suis comme Montou, de la droite je tranche, de la gauche je saisis… J'ai rencontré 2 500 chars, et, dès que je suis au milieu, ils se renversent devant mes cavales… ». Bataille confuse, en fait, à l'issue incertaine, mais qui arrêta la progression hittite vers le sud.
La lutte contre l'Assyrie
Deux ans après, Ramsès fait campagne en « Palestine », où Mouwattali a fomenté une révolte.
Une crise dynastique éclate au Hatti : Hattousili, frère de Mouwattali, prend finalement le pouvoir. Après une nouvelle démonstration militaire du souverain d'Égypte, qui remonte jusqu'à Tounip, Hattousili III semble manifester une volonté de paix. Un nouveau danger, commun, rapproche d'ailleurs, à ce moment, les deux souverains : Salmanasar Ier (Shoulmân-asharêdou), roi d'Assyrie, pénètre dans le Mitanni et porte sa frontière jusque sur l'Euphrate. Des ambassadeurs égyptiens et hittites établissent, vers 1278 avant J.-C., les bases d'un traité qui assure aux deux royaumes le partage de l'hégémonie, politique et économique, sur le monde asiatique. Le texte de ce traité est gravé en langue akkadienne sur des tablettes d'argile, déposé aux pieds des dieux Rê et Teshoub (ses garants), dans leurs sanctuaires respectifs à Pi-Ramsès et à Hattousa (l'actuel site de Boğazköy), et des copies sont sculptées, en hiéroglyphes, sur les murs du temple d'Amon à Karnak et sur ceux du Ramesseum. Il témoigne d'une alliance étroite entre deux rois égaux, alliance consolidée par des rapports personnels : visite du souverain hittite en Égypte, mariage de Ramsès avec une princesse hittite ( ?). Pendant cinquante ans, le Proche-Orient connaît la paix, que rend féconde un intense courant d'échanges culturels et économiques.
Mise en valeur du royaume et grandes réalisations architecturales

Ramsès emploie également ces années calmes à consolider son empire africain. La mise en valeur des mines d'or, la politique d'égyptianisation se développent encore. L'occupation, tout en se maintenant officiellement jusqu'à Napata (quatrième cataracte), semble n'avoir été effective que jusqu'à la deuxième cataracte. Cette région se couvre alors de magnifiques monuments : les plus célèbres sont les temples que Ramsès II fit tailler dans la montagne même, à Abou-Simbel (peu avant la deuxième cataracte) ; l'un est consacré à la triade Amon-Horakhty-Ptah, l'autre à la déesse Hathor ; c'est à même le roc également que sont sculptées les quatre statues assises colossales du souverain, lesquelles devancent la façade du grand temple, ainsi que les six hautes statues de Ramsès II et de la grande épouse royale Néfertari, qui encadrent l'entrée du temple d'Hathor.
Une extraordinaire activité architecturale marque d'ailleurs ce règne : achèvement de la grande colonnade de Karnak et du temple d'Amon-Mout-Khonsou à Louqsor, construction du temple funéraire, dit Ramesseum, à Thèbes, de l'Osireion à Abydos, notamment. Travaillant à ces constructions, des prisonniers de guerre et des populations ramenées en butin constituent un immense prolétariat (Phéniciens pour les constructions navales, Syriens dans les carrières, Hébreux briquetiers dans l'est du Delta). Ainsi, du cœur de l'Afrique aux rives de l'Oronte, d'innombrables monuments et documents attestent le prestige du souverain « élu de Rê, aimé d'Amon », souverain magnifique, nanti de cinq ou six grandes épouses et de nombreuses concubines, père de plus de 100 enfants royaux. Le luxe de la cour est sans précédent, qui fait dire que « à Thèbes, toutes les maisons regorgent d'or » (l'Odyssée, IV, 125).
Une fin de règne difficile

Mais la fin du règne est assombrie par des événements menaçants pour l'avenir. Au-delà des frontières, une double rupture de l'équilibre international entraîne la ruine de l'Empire : sur terre, la dynastie assyrienne s'installe définitivement sur l'Euphrate (la grande voie commerciale reliant l'Asie Mineure à Babylone), défait les Hittites, occupe Babylone même et contrôle désormais toute la Mésopotamie. Sur mer, l'expansion achéenne prend, dans la mer Égée et la Méditerranée orientale, des proportions considérables. Le Hatti fait front, Ramsès II, vieilli, ne fait rien et temporise. Son pouvoir est d'ailleurs sapé de l'intérieur par la formation inévitable d'une nouvelle classe militaire (conséquence de la création d'une armée de métier, dotée de bénéfices fonciers inaliénables), par le développement de la classe cléricale (l'hérédité sacerdotale s'implante, les terres des temples prennent allure de domaines seigneuriaux) et par des troubles démographiques (dus à l'accroissement de la main-d'œuvre étrangère).
À la mort de Ramsès II, en 1236 avant J.-C., Mineptah, son quatrième fils et successeur, doit affronter une situation dangereuse.
Une découverte archéologique, en 1995, a permis de mettre au jour les sépultures des femmes et enfants de Ramsès II ; il s'agit du plus vaste ensemble funéraire de la Vallée des rois.

 

   DOCUMENT   larousse.fr    LIEN

 

Ramsès II

il y a 6 mois

Ramsès II

Troisième pharaon de la XIXe dynastie (1301-1236 avant J.-C.).
Le règne de Ramsès II se situe au début de la seconde moitié du Nouvel Empire (1580-1085 avant J.-C.), la dernière période de gloire et de prospérité de l'Égypte ancienne. À cette époque de l'histoire de l'humanité, l'Égypte est encore une grande puissance qui rayonne sur tout le Proche-Orient et qui, bien au-delà, mène une politique ouvertement expansionniste en Afrique et en Asie.
Un monarque guerrier

Fils de Seti Ier, Ramsès II est le troisième souverain de la XIXe dynastie, qui a pris le pouvoir vers 1314 avant J.-C., soixante ans après le règne d’Akhenaton. Les années troublées qui suivent directement celui-ci (règnes de Smenkhkarê, de Toutankhamon, de Aï) sont mal connues ; mais on sait que, vers 1339 avant J.-C., le général Horemheb, qui a su conserver l'intégrité des frontières de l'Empire menacé, est désigné comme roi par un oracle d'Amon ; il restaure l'Empire et l'État. Sans héritiers, il adopte pour successeur un général originaire, semble-t-il, de Tanis, Ramsès Ier, qui, très vite, associe son fils Seti Ier au trône. Avec cette dynastie de monarques guerriers, provenant des marches de l'Asie, la politique égyptienne devient résolument impérialiste, l'idéologie se fait violente : Amon rétablira par la terreur la domination du roi, qui sera « celui qui s'élance sur ses ennemis comme un lion terrible, qui entasse leurs cadavres auprès de leurs vallées, qui les renverse dans leur sang… ».
La lutte contre les Hittites
Quand Ramsès II monte sur le trône, la situation extérieure est de nouveau menaçante. Il y a un danger principal : le royaume du Hatti (peuplé par les Hittites, et constitué dans la région des plateaux de l'Anatolie actuelle lors des invasions indo-européennes du IIe millénaire avant J.-C.) et son actif souverain, Mouwattali. Une intense activité diplomatique a permis à celui-ci de nouer un réseau d'alliances en Asie Mineure, constituant ainsi un bloc de puissance politique rival du « groupe » égyptien ; de plus, à l'hégémonie économique de l'Égypte en Méditerranée, le Hatti oppose maintenant une politique concurrente en Égée, à laquelle la puissance mycénienne (succédant à celle de la Crète) donne une importance nouvelle ; les commerçants des îles égéennes se tournent naturellement vers le Hatti, installé sur les côtes occidentale et méridionale de l'Asie Mineure. La clef de cette double hégémonie est la Syrie et les ports phéniciens ; Ramsès et Mouwattali se préparent ouvertement à la lutte.
Ramsès, militaire avisé, installe ses bases et renforce ses armées. Il transporte d'abord sa résidence à Pi-Ramsès, à la frontière orientale de l'Égypte. Cette « remontée » de la capitale vers le nord est un fait important, tant du point de vue économique (en effet, les villes du Delta oriental, Tanis, Bubastis, Athribis, sont alors de grands centres commerciaux, et la nouvelle résidence du souverain se trouve ainsi au point de jonction des routes qui unissent le Delta aux ports syro-phéniciens et à la mer Rouge) que du point de vue politique (à la capitale religieuse sise à Thèbes, où le clergé d'Amon est puissant, s'oppose désormais une autre capitale, centre politique, éloignée de l'emprise cléricale) ; de plus, Pi-Ramsès (Tanis ? Qantir ?), aux frontières mêmes de l'Asie, prend figure de capitale d'Empire, mi-égyptienne, mi-asiatique (ainsi, le quartier oriental de la ville est consacré à la grande déesse-mère de l'Asie antérieure, Ishtar, et le quartier occidental à celle du Delta, Ouadjet). Cette décision répond avec évidence à un souci de politique impérialiste raisonnée, et a l'avantage d'offrir une base commode pour les opérations militaires.
Dans le même esprit, Ramsès II développe son armée. Aux trois divisions déjà existantes (placées sous le patronage des dieux Amon, Rê et Ptah), il en adjoint une quatrième, que protège Seth, dieu oriental (proche de Baal ou de Soutekh, guerriers asiatiques, et souvent assimilé à ceux-ci). Des troupes noires sont levées en Nubie (corps d'archers), et des mercenaires sont recrutés parmi les prisonniers de guerre (Shardanes, notamment). Dernière mesure de sagesse : des campagnes en Nubie et en Libye assurent la paix aux confins du sud et de l'ouest. Une guerre s'engage, qui va durer, suivant différentes phases, une vingtaine d'années.
Ramsès remonte jusqu'à l'Oronte et livre, devant Qadesh, une grande bataille connue grâce à des sources précises : notamment le Poème de Pentaour (reproduit sur plusieurs papyrus, copié en hiéroglyphes sur les murs des temples de Louqsor, de Karnak, d'Abydos) et le rapport officiel de la bataille (sculpté en bas reliefs, accompagnés de légendes, sur les murs de plusieurs sanctuaires : à Thèbes, Abydos, Abou-Simbel, entre autres). C'est une aventure héroïque : Ramsès II, déjà parvenu aux rives de l'Oronte, où l'attend Mouwattali près de Kadesh, ayant été trompé par de faux rapports d'espions (agents doubles) annonçant la retraite de l'armée hittite, précipite sa marche et franchit en partie le gué sur le fleuve, pour contourner la ville, et cela (rassuré qu'il est) sans prendre soin de couvrir ses flancs ; la division d'Amon a franchi la rivière, celle de Rê s'apprête à le faire, cependant que les divisions de Ptah et de Seth, à l'arrière, s'acheminent encore sur la route. Mais la trahison apparaît lorsque deux prisonniers hittites, interrogés… et bâtonnés, avouent la manœuvre perfide. Ramsès veut accélérer le regroupement de ses soldats, mais Mouwattali, qui a déjà massé ses 2 500 chars au bord du fleuve, fonce, coupe en deux l'armée égyptienne et pénètre, semble-t-il, jusque dans le camp de Ramsès. Celui-ci, guidé par Amon, réussit (d'après les textes égyptiens) l'héroïque exploit de rejeter, seul, l'ennemi en désordre : « Je t'invoque, ô mon père Amon ! Me voici au milieu de peuples si nombreux qu'on ne sait qui sont les nations conjurées contre moi, et je suis seul, aucun autre avec moi. Mes nombreux soldats m'ont laissé, aucun de mes charriers n'a regardé vers moi quand je l'appelais… Mais Amon vaut mieux pour moi qu'un million de soldats, que cent mille charriers, qu'une myriade de frères ou de jeunes fils… Amon surgit à mon injonction, il me tend la main, il pousse un cri de joie : "Face à face avec toi, Ramsès Meriamoun, je suis avec toi ! C'est moi ton père ! Ma main est avec toi… Moi, le fort, qui aime la vaillance, j'ai reconnu un cœur courageux…" Alors je suis comme Montou, de la droite je tranche, de la gauche je saisis… J'ai rencontré 2 500 chars, et, dès que je suis au milieu, ils se renversent devant mes cavales… ». Bataille confuse, en fait, à l'issue incertaine, mais qui arrêta la progression hittite vers le sud.
La lutte contre l'Assyrie
Deux ans après, Ramsès fait campagne en « Palestine », où Mouwattali a fomenté une révolte.
Une crise dynastique éclate au Hatti : Hattousili, frère de Mouwattali, prend finalement le pouvoir. Après une nouvelle démonstration militaire du souverain d'Égypte, qui remonte jusqu'à Tounip, Hattousili III semble manifester une volonté de paix. Un nouveau danger, commun, rapproche d'ailleurs, à ce moment, les deux souverains : Salmanasar Ier (Shoulmân-asharêdou), roi d'Assyrie, pénètre dans le Mitanni et porte sa frontière jusque sur l'Euphrate. Des ambassadeurs égyptiens et hittites établissent, vers 1278 avant J.-C., les bases d'un traité qui assure aux deux royaumes le partage de l'hégémonie, politique et économique, sur le monde asiatique. Le texte de ce traité est gravé en langue akkadienne sur des tablettes d'argile, déposé aux pieds des dieux Rê et Teshoub (ses garants), dans leurs sanctuaires respectifs à Pi-Ramsès et à Hattousa (l'actuel site de Boğazköy), et des copies sont sculptées, en hiéroglyphes, sur les murs du temple d'Amon à Karnak et sur ceux du Ramesseum. Il témoigne d'une alliance étroite entre deux rois égaux, alliance consolidée par des rapports personnels : visite du souverain hittite en Égypte, mariage de Ramsès avec une princesse hittite ( ?). Pendant cinquante ans, le Proche-Orient connaît la paix, que rend féconde un intense courant d'échanges culturels et économiques.
Mise en valeur du royaume et grandes réalisations architecturales

Ramsès emploie également ces années calmes à consolider son empire africain. La mise en valeur des mines d'or, la politique d'égyptianisation se développent encore. L'occupation, tout en se maintenant officiellement jusqu'à Napata (quatrième cataracte), semble n'avoir été effective que jusqu'à la deuxième cataracte. Cette région se couvre alors de magnifiques monuments : les plus célèbres sont les temples que Ramsès II fit tailler dans la montagne même, à Abou-Simbel (peu avant la deuxième cataracte) ; l'un est consacré à la triade Amon-Horakhty-Ptah, l'autre à la déesse Hathor ; c'est à même le roc également que sont sculptées les quatre statues assises colossales du souverain, lesquelles devancent la façade du grand temple, ainsi que les six hautes statues de Ramsès II et de la grande épouse royale Néfertari, qui encadrent l'entrée du temple d'Hathor.
Une extraordinaire activité architecturale marque d'ailleurs ce règne : achèvement de la grande colonnade de Karnak et du temple d'Amon-Mout-Khonsou à Louqsor, construction du temple funéraire, dit Ramesseum, à Thèbes, de l'Osireion à Abydos, notamment. Travaillant à ces constructions, des prisonniers de guerre et des populations ramenées en butin constituent un immense prolétariat (Phéniciens pour les constructions navales, Syriens dans les carrières, Hébreux briquetiers dans l'est du Delta). Ainsi, du cœur de l'Afrique aux rives de l'Oronte, d'innombrables monuments et documents attestent le prestige du souverain « élu de Rê, aimé d'Amon », souverain magnifique, nanti de cinq ou six grandes épouses et de nombreuses concubines, père de plus de 100 enfants royaux. Le luxe de la cour est sans précédent, qui fait dire que « à Thèbes, toutes les maisons regorgent d'or » (l'Odyssée, IV, 125).
Une fin de règne difficile

Mais la fin du règne est assombrie par des événements menaçants pour l'avenir. Au-delà des frontières, une double rupture de l'équilibre international entraîne la ruine de l'Empire : sur terre, la dynastie assyrienne s'installe définitivement sur l'Euphrate (la grande voie commerciale reliant l'Asie Mineure à Babylone), défait les Hittites, occupe Babylone même et contrôle désormais toute la Mésopotamie. Sur mer, l'expansion achéenne prend, dans la mer Égée et la Méditerranée orientale, des proportions considérables. Le Hatti fait front, Ramsès II, vieilli, ne fait rien et temporise. Son pouvoir est d'ailleurs sapé de l'intérieur par la formation inévitable d'une nouvelle classe militaire (conséquence de la création d'une armée de métier, dotée de bénéfices fonciers inaliénables), par le développement de la classe cléricale (l'hérédité sacerdotale s'implante, les terres des temples prennent allure de domaines seigneuriaux) et par des troubles démographiques (dus à l'accroissement de la main-d'œuvre étrangère).
À la mort de Ramsès II, en 1236 avant J.-C., Mineptah, son quatrième fils et successeur, doit affronter une situation dangereuse.
Une découverte archéologique, en 1995, a permis de mettre au jour les sépultures des femmes et enfants de Ramsès II ; il s'agit du plus vaste ensemble funéraire de la Vallée des rois.

 

   DOCUMENT   larousse.fr    LIEN

 

Invasion des insectes l'économie mondiale affectée

il y a 6 mois

Paris, 4 octobre 2016
Invasion des insectes : l'économie mondiale affectée

69 milliards d'euros, c'est le coût minimal annuel des dégâts provoqués par les insectes envahissants dans le monde, estime une équipe internationale de chercheurs menée par Franck Courchamp, directeur de recherche CNRS au laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech) et impliquant notamment les entomologistes de l'IRD à Montpellier et un économiste CNRS. Depuis les dégâts sur les biens et services jusqu'aux coûts en santé, en passant par les pertes en agriculture, cette étude, réalisée avec le soutien de l'ANR et de la Fondation BNP Paribas, rassemble la plus importante base de données jamais élaborée des dégâts économiques imputables aux insectes envahissants dans le monde : 737 articles, livres et rapports ont été considérés. Ces travaux sont publiés dans Nature Communications le 4 octobre 2016.
Pourquoi étudier les insectes ? Depuis des milliers d'années, les insectes ont été responsables de la propagation de maladies chez l'Homme et le bétail, et de dégâts considérables, depuis l'anéantissement des cultures et réserves, en passant par la destruction des infrastructures, jusqu'à la dévastation des forêts, altérant ainsi les écosystèmes et les rendant plus fragiles. Dans le règne vivant, la seule classe des insectes (environ 2,5 millions d'espèces) est probablement le groupe le plus coûteux. De plus, ils font partie des espèces envahissantes les plus virulentes : 87 % des 2 500 invertébrés terrestres ayant colonisé de nouveaux territoires sont des insectes.

Des dégâts sous-évalués

Les scientifiques ont estimé à 69 milliards d'euros par an le coût minimal des dégâts causés par les insectes envahissants dans le monde. Parmi les d'insectes étudiés, le termite de Formose1 (Coptotermes formosanus) serait l'un des plus destructeurs : plus de 26,7 milliards d'euros par an dans le monde. Mais cette estimation provient d'une étude trop peu documentée, selon l'équipe de recherche. Des études plus renseignées (estimées reproductibles par les scientifiques) placent également « en haut du classement » la teigne des choux2 (Plutella xylostella), avec un coût de 4,1 milliards d'euros par an et le longicorne brun de l'épinette3 (Tetropium fuscum), avec un coût de 4 milliards d'euros par an rien qu'au Canada.

Par ailleurs, d'après cette étude, l'Amérique du Nord présente les plus importantes pertes financières avec 24,5 milliards d'euros par an, tandis que l'Europe n'est pour l'instant qu'à 3,2 milliards d'euros par an. Mais cette différence s'explique par un manque de sources d'évaluation et non par une réelle différence d'exposition au danger. Ainsi, selon les chercheurs, le coût annuel total estimé de 69 milliards d'euros est largement sous-évalué. De nombreuses régions du monde n'offrent pas assez de données économiques pour produire une estimation précise, qui a donc été minimisée. De plus, l'équipe de chercheurs s'est concentrée sur l'étude des dix espèces invasives les plus coûteuses, sans comptabiliser celles, très nombreuses, qui provoquent moins de dégâts. Enfin, si l'on considère les valeurs estimées pour les services écosystémiques à l'échelle globale (plusieurs centaines de milliards de dollars pour la seule pollinisation des cultures), les perturbations causées par les insectes envahissants pourraient atteindre un niveau bien au-delà de l'estimation actuelle. 

La santé et l'agriculture sont les plus touchées

Les insectes dans leur ensemble pèsent particulièrement sur l'agriculture en consommant 40 % des biens de consommation (l'équivalent de ce qui pourrait nourrir un milliard d'êtres humains).

Sur la santé, le coût global attribuable aux insectes envahissants dépasse 6,1 milliards d'euros par an (sans prendre en compte le paludisme, le virus Zika, ou encore l'impact économique provoqué sur certains facteurs comme le tourisme, la productivité, etc). D'un point de vue géographique, les régions du monde où les dépenses médicales liées aux dégâts causés par les insectes envahissants s'avèrent les plus importantes, sont respectivement l'Asie (2,55 milliards d'euros par an), l'Amérique du Nord (1,85 milliards d'euros par an) et l'ensemble de l'Amérique centrale et du Sud (1,66 milliards d'euros par an). Et, parmi les maladies les plus lourdes financièrement, on trouve au premier plan la dengue, dont les dépenses représentent 84 % des 6,1 milliards d'euros.

Une plus grande vigilance et la mise en place de procédures de réponse à une invasion biologique permettraient de faire économiser à la société des dizaines de milliards d'euros, selon les auteurs. Ces mesures de prévention pourraient diviser au moins par dix les coûts des maladies provoquées par les moustiques.

Laboratoires français impliqués :

laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech)
Laboratoire montpelliérain d'économie théorique et appliquée (CNRS/ Université de Montpellier/Inra)
laboratoire Maladies infectieuses et vecteurs : écologie, génétique, évolution et contrôle (CNRS/IRD/Université de Montpellier)
laboratoire Biologie des organismes et écosystèmes aquatiques (CNRS/MNHN/IRD/UPMC/Université Caen Normandie) 

 

 DOCUMENT         cnrs        LIEN

MACHINES ET MOTEURS MOLÉCULAIRES DE LA BIOLOGIE AU MOLÉCULES DE SYNTHÈSE

il y a 7 mois

MACHINES ET MOTEURS MOLÉCULAIRES : DE LA BIOLOGIE AU MOLÉCULES DE SYNTHÈSE


De nombreux processus biologiques essentiels font intervenir des moteurs moléculaires (naturels). Ces moteurs sont constitués de protéines dont la mise en mouvement, le plus souvent déclenchée par l'hydrolyse d'ATP (le "fioul" biologique), correspond à une fonction précise et importante. Parmi les exemples les plus spectaculaires, nous pouvons citer l'ATPsynthase, véritable moteur rotatif responsable de la fabrication de l'ATP. Pour le chimiste de synthèse, l'élaboration de molécules totalement artificielles, dont le comportement rappelle celui des systèmes biologiques, est un défi formidable. L'élaboration de "machines" et "moteurs" moléculaires de synthèse représente un domaine particulièrement actif, qui a vu le jour il y a environ une douzaine d'années. Ces machines sont des objets nanométriques pour lesquels il est possible de mettre en mouvement une partie du composé ou de l'assemblée moléculaire considérée, par l'intervention d'un signal envoyé de l'extérieur, alors que d'autres parties sont immobiles. Si une source d'énergie alimente le système de manière continue, et qu'un mouvement périodique en résulte, l'assemblée moléculaire en mouvement pourra être considérée comme un "moteur". D'ores et déjà, certaines équipes de chimiste ont pu fabriquer des moteurs rotatifs minuscules, des moteurs linéaires mis en mouvement par un signal électronique ou des "muscles" moléculaires de synthèse, capables de se contracter ou de s'allonger sous l'action d'un stimulus externe. Quelques exemples représentatifs seront discutés lors de l'exposé. Un certain nombre de questions ayant trait aux applications potentielles du domaine de "nanomécanique moléculaire" seront abordées : - "ordinateurs moléculaires", pour lesquels certains chercheurs fondent de grands espoirs, stockage et traitement de l'information au niveau moléculaire, - robots microscopiques, capables de remplir une grande variété de fonctions allant de la médecine à la vie de tous les jours, - transport sélectif de molécules ou d'ions à travers des membranes.

 

  DOCUMENT       canal-u.tv     LIEN 

LES MATÉRIAUX MAGNÉTIQUES DE LA BOUSSOLE À L'ÉLECTRONIQUE DE SPIN

il y a 7 mois

LES MATÉRIAUX MAGNÉTIQUES : DE LA BOUSSOLE À L'ÉLECTRONIQUE DE SPIN


Le mot magnétisme reste chargé de mystères, pourtant les phénomènes magnétiques sont connus depuis trois mille ans et les matériaux magnétiques sont omniprésents dans notre environnement. Le but de cet exposé est de tenter de lever ces mystères et d'expliquer la formidable importance des matériaux magnétiques dans nos sociétés développées. La conférence va débuter par un bref historique des matériaux magnétiques, depuis leur découverte en Asie mineure et en Chine jusqu'aux développements les plus récents. On verra ensuite ce qu'est le magnétisme, le champ ou induction magnétique est produit par une charge électrique en mouvement. C'est une conséquence directe de la théorie de la relativité d'Einstein. Ce champ magnétique induit une force sur toutes les particules en mouvement, c'est là l'origine de toutes les forces magnétiques. A l'échelle atomique ce sont le mouvement des électrons autour des noyaux des atomes et le mouvement propre de ces mêmes électrons (mouvement de rotation) qui sont à l'origine des deux types de moments magnétiques atomiques : le moment orbital et le spin. Les liaisons chimiques tendent à compenser ces moments magnétiques, sauf, dans le cas où survivent à ces liaisons des couches atomiques incomplètes, comme celle des métaux dits de transition ou celles des métaux dit de la famille des terres rares. On abordera, ensuite, un aperçu de la diversité des matériaux magnétiques, les matériaux ferromagnétiques paramagnétiques et diamagnétiques...On montrera les fondements physiques des propriétés magnétiques et on décrira un certain nombre de matériaux spécifiques comme les aimants permanents, les différentes bandes magnétiques ou les mémoires...On terminera cet exposé par une description des tendances actuelles dans la science et la technologie des matériaux magnétiques : le nanomagnétisme et l'électronique de spin.

 

 DOCUMENT       canal-u.tv     LIEN 

Génétique un "code origines" pour l'ADN

il y a 7 mois

Paris, 12 novembre 2015
Génétique : un "code origines" pour l'ADN

A l'origine de toute vie, il y a la duplication (ou réplication) de l'ADN, un mécanisme crucial pour la division des cellules. Des biologistes viennent de mener l'analyse la plus exhaustive à ce jour des milliers de sites (appelés origines) où démarre cette réplication du génome chez les organismes multicellulaires. Ils ont pu en distinguer trois grandes catégories, qui reflètent les capacités d'adaptation des cellules. La connaissance de ce "code origines" devrait permettre de rechercher d'éventuelles altérations dans le cancer, voire déboucher sur de nouveaux outils de thérapie génique. Ces résultats, issus principalement d'une collaboration entre des biologistes moléculaires de l'Institut de génétique humaine (CNRS) et des bioinformaticiens du laboratoire Technologie avancée pour le génome et la clinique (TAGC, Inserm/Aix-Marseille Université), sont publiés le 11 novembre 2015 dans la revue Genome Research.
La vie est un éternel recommencement. Pour construire un nouvel organisme à partir de l'unique cellule issue de la fécondation, ou pour renouveler nos tissus (peau, sang…), les cellules se multiplient. Cela commence par la copie (appelée réplication) du patrimoine génétique (l'ADN contenu dans chaque chromosome), avant que la cellule ne se divise en deux copies identiques. La première étape nécessite que les deux brins d'ADN de la double hélice se déroulent et s'ouvrent à la manière d'une fermeture éclair. Puis, chaque brin est recopié, en progressant à partir de cette ouverture, afin de former deux chromosomes identiques. 

Chez les organismes pluricellulaires, cette copie démarre simultanément en des milliers de sites sur chaque chromosome, appelés origines de réplication1. Ces sites dessinent une sorte de code-barres sur l'ADN, dont les caractéristiques étaient encore mal comprises. 

A partir de cellules souches de souris (dont le génome est très proche du nôtre), l'équipe de Marcel Méchali (dont principalement Christelle Cayrou) à l'Institut de génétique humaine du CNRS, et les bioinformaticiens Jacques van Helden et Benoit Ballester du laboratoire TAGC ont recherché les caractéristiques des origines de réplication. Ils ont croisé les approches pour déterminer à la fois leur séquence (le message héréditaire porté par l'ADN, codé dans un alphabet de quatre lettres) et les marques réversibles qui peuvent être ajoutées sur le chromosome, qualifiées d'épigénétiques.

Ils ont ainsi observé une structure particulière de l'ADN, partagée par 75 % des origines, consistant en un site riche en G (l'une des quatre lettres de l'alphabet génétique) où pourrait s'assembler la machinerie cellulaire utile à la réplication, avant que l'ADN s'ouvre sur un deuxième site situé un peu en aval.

Mais surtout, en voulant dresser un portrait-robot des origines de réplication, les chercheurs sont finalement parvenus à dégager trois grandes catégories, qui semblent s'adapter à différents besoins de la cellule. Par exemple, la classe 1 regroupe des origines qui portent peu de marques épigénétiques, assez isolées, situées dans des régions pauvres en gènes, qui sont recopiées assez tardivement lors de la réplication. La classe 3, elle, rassemble des origines situées dans des régions riches en gènes, et notamment en gènes impliqués dans le développement embryonnaire ou la différenciation des cellules.

Ce "code origines" pourrait expliquer la flexibilité d'utilisation des origines, sans doute en lien avec les capacités d'adaptation des cellules face aux conditions rencontrées. En effet, sur les 65 000 à 100 000 origines du génome humain, seul un tiers est mobilisé lors d'un cycle de réplication donné. Mais les autres sont loin d'être superflues. Une partie sert de réserve anti-stress : si des erreurs ou des cassures provoquées par des agents externes bloquent la réplication à un endroit donné, elle peut redémarrer à partir d'une autre origine de réserve. Une autre partie des origines excédentaires peut permettre une adaptation en fonction du destin cellulaire : selon les types cellulaires (neurone, globule blanc…), les chromosomes sont repliés différemment dans le noyau et les parties du chromosome accessibles ne sont pas les mêmes.  

Ce travail très fondamental n'est pas sans applications potentielles. En effet, des anomalies lors de la réplication peuvent provoquer des réarrangements du génome tels que ceux rencontrés dans les cellules cancéreuses. Le déchiffrement du "code origines" va donc permettre de rechercher d'éventuelles altérations de ce code qui pourraient contribuer aux cancers. Il pourrait aussi ouvrir sur des traitements bloquant les origines dans les cellules cancéreuses, afin d'arrêter leur prolifération. Enfin, les chercheurs espèrent mettre au point de nouveaux outils de thérapie génique. En concevant des origines de réplication très efficaces, ils pourraient construire des vecteurs2 de gènes capables de se comporter dans les cellules comme un mini-chromosome supplémentaire, assurant le maintien à long terme du gène-médicament, tout en évitant les inconvénients des vecteurs viraux3 utilisés à l'heure actuelle.

 

 DOCUMENT         CNRS         LIEN

Invasion des insectes l'économie mondiale affectée

il y a 7 mois

Paris, 4 octobre 2016
Invasion des insectes : l'économie mondiale affectée

69 milliards d'euros, c'est le coût minimal annuel des dégâts provoqués par les insectes envahissants dans le monde, estime une équipe internationale de chercheurs menée par Franck Courchamp, directeur de recherche CNRS au laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech) et impliquant notamment les entomologistes de l'IRD à Montpellier et un économiste CNRS. Depuis les dégâts sur les biens et services jusqu'aux coûts en santé, en passant par les pertes en agriculture, cette étude, réalisée avec le soutien de l'ANR et de la Fondation BNP Paribas, rassemble la plus importante base de données jamais élaborée des dégâts économiques imputables aux insectes envahissants dans le monde : 737 articles, livres et rapports ont été considérés. Ces travaux sont publiés dans Nature Communications le 4 octobre 2016.
Pourquoi étudier les insectes ? Depuis des milliers d'années, les insectes ont été responsables de la propagation de maladies chez l'Homme et le bétail, et de dégâts considérables, depuis l'anéantissement des cultures et réserves, en passant par la destruction des infrastructures, jusqu'à la dévastation des forêts, altérant ainsi les écosystèmes et les rendant plus fragiles. Dans le règne vivant, la seule classe des insectes (environ 2,5 millions d'espèces) est probablement le groupe le plus coûteux. De plus, ils font partie des espèces envahissantes les plus virulentes : 87 % des 2 500 invertébrés terrestres ayant colonisé de nouveaux territoires sont des insectes.

Des dégâts sous-évalués

Les scientifiques ont estimé à 69 milliards d'euros par an le coût minimal des dégâts causés par les insectes envahissants dans le monde. Parmi les d'insectes étudiés, le termite de Formose1 (Coptotermes formosanus) serait l'un des plus destructeurs : plus de 26,7 milliards d'euros par an dans le monde. Mais cette estimation provient d'une étude trop peu documentée, selon l'équipe de recherche. Des études plus renseignées (estimées reproductibles par les scientifiques) placent également « en haut du classement » la teigne des choux2 (Plutella xylostella), avec un coût de 4,1 milliards d'euros par an et le longicorne brun de l'épinette3 (Tetropium fuscum), avec un coût de 4 milliards d'euros par an rien qu'au Canada.

Par ailleurs, d'après cette étude, l'Amérique du Nord présente les plus importantes pertes financières avec 24,5 milliards d'euros par an, tandis que l'Europe n'est pour l'instant qu'à 3,2 milliards d'euros par an. Mais cette différence s'explique par un manque de sources d'évaluation et non par une réelle différence d'exposition au danger. Ainsi, selon les chercheurs, le coût annuel total estimé de 69 milliards d'euros est largement sous-évalué. De nombreuses régions du monde n'offrent pas assez de données économiques pour produire une estimation précise, qui a donc été minimisée. De plus, l'équipe de chercheurs s'est concentrée sur l'étude des dix espèces invasives les plus coûteuses, sans comptabiliser celles, très nombreuses, qui provoquent moins de dégâts. Enfin, si l'on considère les valeurs estimées pour les services écosystémiques à l'échelle globale (plusieurs centaines de milliards de dollars pour la seule pollinisation des cultures), les perturbations causées par les insectes envahissants pourraient atteindre un niveau bien au-delà de l'estimation actuelle. 

La santé et l'agriculture sont les plus touchées

Les insectes dans leur ensemble pèsent particulièrement sur l'agriculture en consommant 40 % des biens de consommation (l'équivalent de ce qui pourrait nourrir un milliard d'êtres humains).

Sur la santé, le coût global attribuable aux insectes envahissants dépasse 6,1 milliards d'euros par an (sans prendre en compte le paludisme, le virus Zika, ou encore l'impact économique provoqué sur certains facteurs comme le tourisme, la productivité, etc). D'un point de vue géographique, les régions du monde où les dépenses médicales liées aux dégâts causés par les insectes envahissants s'avèrent les plus importantes, sont respectivement l'Asie (2,55 milliards d'euros par an), l'Amérique du Nord (1,85 milliards d'euros par an) et l'ensemble de l'Amérique centrale et du Sud (1,66 milliards d'euros par an). Et, parmi les maladies les plus lourdes financièrement, on trouve au premier plan la dengue, dont les dépenses représentent 84 % des 6,1 milliards d'euros.

Une plus grande vigilance et la mise en place de procédures de réponse à une invasion biologique permettraient de faire économiser à la société des dizaines de milliards d'euros, selon les auteurs. Ces mesures de prévention pourraient diviser au moins par dix les coûts des maladies provoquées par les moustiques.

 

 DOCUMENT         cnrs        LIEN 

La naissance du politique chez l'enfant le cas de la hiérarchie

il y a 8 mois

Paris, 26 septembre 2016
La naissance du politique chez l'enfant : le cas de la hiérarchie

L'enfant deviendrait-il, en grandissant, un véritable petit Robin des Bois ? Selon son âge, il ne partage pas les ressources de la même façon entre un individu dominant et un individu subordonné. Ainsi, une tendance égalitariste se développe puis s'accentue entre 5 et 8 ans. Ce résultat, obtenu par une équipe de chercheurs du CNRS, des universités Claude Bernard Lyon 1, de Lausanne et de Neuchâtel (Suisse), permet de mieux comprendre la naissance de la notion d'égalité chez les êtres humains et d'appréhender leur sens de la justice. Il est publié le 26 septembre 2016 dans la revue Developmental Psychology.
Les relations hiérarchiques constituent une des caractéristiques de notre vie sociale. L'enfant détecte très tôt la différence entre un individu dominant et un individu subordonné. Mais quel comportement adopte-t-il face à une asymétrie hiérarchique ? Va-t-il favoriser le dominant et ainsi préserver le statu quo ? Ou au contraire avantager le subordonné et instituer une forme d'égalité ? Comment ces prises de position évoluent-elles pendant l'enfance ? 

Des chercheurs de l'Institut des sciences cognitives Marc Jeannerod (CNRS/Université Claude Bernard Lyon 1), des universités de Lausanne et de Neuchâtel ont examiné les prémices de ce positionnement politique chez des enfants âgés de 3 à 8 ans grâce à deux expériences : l'une de partage de ressources, l'autre de redistribution.

Dans la première expérience, les chercheurs ont demandé à 173 enfants de regarder une saynète jouée par deux marionnettes. L'une d'elles imposait systématiquement ses jeux à l'autre : les enfants reconnaissaient en elle le chef. Les chercheurs donnaient alors à l'enfant un grand chocolat et un petit chocolat, et observaient à quelle marionnette il distribuait chaque friandise. A 3 et 4 ans, une large majorité d'enfants avantage la marionnette dominante en lui attribuant le grand chocolat. A 5 ans, cette tendance disparait, pour s'inverser complètement à 8 ans. A cet âge, la quasi-totalité des enfants favorisent la marionnette subordonnée. 

Les spécialistes ont intitulé la seconde expérience « paradigme de Robin des Bois ». Les enfants (au nombre de 132) devaient regarder une scène où trois personnages, dont l'un se déclarait être le chef, jouaient dans un parc. Par la suite, le chef et l'un des subordonnés recevaient chacun trois pièces, tandis que le dernier subordonné obtenait seulement une pièce. L'examinateur demandait à l'enfant de prendre une pièce de l'une des deux personnages les plus riches pour la donner au plus pauvre. Le même effet que dans la première expérience est alors observé : les plus jeunes protègent les ressources du dominant alors que les plus âgés protègent celles du subordonné. 

Les enfants les plus âgés parvenaient souvent à expliquer leur choix. Ils donnaient le plus gros chocolat à telle marionnette « parce qu'elle ne choisit jamais le jeu », ou encore « parce qu'elle est moins chanceuse que l'autre ». D'autres, surtout les plus jeunes, n'y arrivaient pas, car produire une justification leur demandait un niveau d'abstraction trop élevé. 

Les chercheurs suggèrent plusieurs facteurs pour expliquer l'avantage donné au dominant et pour comprendre l'inversion de cette tendance avec l'âge. Tout d'abord, les enfants plus jeunes sont plus dépendants des figures d'autorité parentale. De plus, à la crèche, les rapports de dominance entre enfants sont fréquents et relativement bien acceptés. Les très jeunes enfants pourraient également vouloir s'attirer les faveurs du dominant, ou éviter d'entrer en conflit avec lui. Mais la volonté des enfants de contrecarrer les inégalités se renforce à mesure que se complexifie leur vie sociale. En effet, plus ils grandissent, plus ils ont de partenaires de jeu, plus la notion d'égalité leur est nécessaire pour évoluer dans leur groupe. 

Ces travaux montrent que les enfants commencent à être sensibles aux inégalités de statut vers cinq ans, et que cette tendance devient très prononcée vers huit ans. Toutefois, ces résultats ne signifient pas que les enfants de huit ans se montrent égalitaristes dans toutes les situations sociales. Les chercheurs s'attachent maintenant à comprendre l'effet du genre et l'influence de la culture sur cette tendance : une marionnette de genre masculin sera-t-elle perçue comme davantage dominante ? La sensibilité aux inégalités est-elle moins forte dans les pays où les hiérarchies sont culturellement plus marquées ?  

Ces travaux ont bénéficié du soutien de la Fondation de France, de la région Rhône-Alpes et du rectorat de Lyon.

 

  DOCUMENT         cnrs        LIEN  

Mieux courir grâce aux mathématiques

il y a 8 mois

Paris, 13 mai 2014
Mieux courir grâce aux mathématiques

Comment courir pour améliorer sa performance, son poids et sa forme ? Amandine Aftalion du Laboratoire de mathématiques de Versailles (CNRS/Université de Versailles-Saint-Quentin-en-Yvelines) et Frédéric Bonnans du Centre de mathématiques appliquées (CNRS/Inria/École polytechnique)1 ont créé un modèle mathématique d'optimisation de la course qui pourrait conduire à un programme d'entrainements personnalisés selon l'état physiologique de chacun. Il confirme en outre un fait bien connu des sportifs : varier sa vitesse permet de mieux dépenser son énergie et de courir plus longtemps. Les mathématiques offrent ainsi l'opportunité aux coureurs de passer de simples outils de mesures statistiques2 au conseil sportif personnalisé. Ces travaux, disponibles sur l'archive ouverte HAL, seront présentés le 16 mai 2014 lors du forum Futurapolis à Toulouse, dont le CNRS est partenaire, puis publiés dans la revue SIAM J.Applied Mathematics.
Ce modèle mathématique prend tout d'abord en compte l'énergie du coureur, notamment sa consommation maximale d'oxygène (VO2max)3 et son stock d'énergie anaérobie4, en les faisant intervenir dans un système d'équations différentielles reliant la vitesse, l'accélération, la force de propulsion et les forces de frottement. Ce système est couplé à des conditions initiales de départ de la course, vitesse nulle et quantité d'énergie donnée, et des contraintes : l'énergie et la force de propulsion doivent être positives (le coureur ne peut pas reculer). Les chercheurs sont capables avec ce modèle de prédire le comportement que doit avoir le sportif tout au long de sa course au moyen d'un bilan instantané déterminant à la seconde près la vitesse optimale du coureur et l'énergie dépensée depuis le départ. Leur résultat principal montre ainsi que varier sa vitesse permet de dépenser moins d'énergie et de courir plus longtemps. De plus, en comparant ces résultats avec ceux d'athlètes professionnels, les auteurs peuvent également préciser quels paramètres physiologiques les coureurs doivent développer pour s'améliorer en répondant par exemple aux questions suivantes : quels seront les résultats d'un champion s'il avait le poids et la consommation maximale d'oxygène d'un coureur amateur ? Quels sont alors les paramètres que le sportif amateur peut améliorer pour s'approcher des résultats habituels du champion ? Doit-il améliorer sa capacité respiratoire ou son énergie anaérobie ?

Les applications de ce modèle concernent deux types de publics. Dans le cas des coureurs « semi-professionnels » qui n'ont pas l'opportunité de travailler avec un entraîneur ou dans le cadre de cours d'éducation physique et sportive à l'école, les chercheurs souhaiteraient développer un logiciel capable de créer des programmes d'entrainements personnalisés qui indiqueraient les paramètres physiologiques à développer en priorité et de réaliser des stratégies précisant les vitesses optimales à atteindre à chaque moment de la course. Pour les « coureurs du dimanche », le système d'équations étant adaptable à toutes les variables intéressantes pour le sportif (et pas seulement la vitesse), ces derniers pourraient, par exemple, connaître instantanément le nombre exact (et non pas une simple moyenne comme pour les outils existant actuellement) de calories perdues lors de la course afin d'améliorer leur perte de poids. 

Les chercheurs souhaitent désormais améliorer leur modèle mathématique en intégrant au système d'équations de nouveaux paramètres comme l'altitude ou l'effet du vent et l'appliquer à d'autres sports d'endurance comme le cyclisme, la natation ou le canoé kayak.


Notes :
1Amandine Aftalion est directrice de recherche CNRS au Laboratoire de mathématiques de Versailles. Frédéric Bonnans est directeur de recherche Inria au Centre de mathématiques appliquées de l'École polytechnique.
2Les applications mobiles qui se multiplient actuellement ne recueillent des données qu'à des fins statistiques (vitesse ou distance moyenne) mais ne permettent pas d'améliorer les performances des coureurs. 
3Lors d'un effort « aérobie » les muscles, grâce au système respiratoire, fonctionnent avec suffisamment d'oxygène pour tirer la majorité de leur énergie. La consommation maximale d'oxygène correspond au volume d'oxygène maximal que le coureur peut utiliser lors d'un effort. Elle est utilisée pour mesurer la capacité respiratoire des coureurs.
4La dénomination « anaérobie » est attribuée à l'énergie utilisée par le corps lorsque celui-ci subit un déficit en oxygène. Cette énergie est due à la transformation des sucres venant de l'alimentation.
Références :
Optimization of running strategies based on anaerobic energy and variations of velocity. A. Aftalion et F. Bonnans. À paraître dans SIAM J.Applied Mathematics.

 

 DOCUMENT         cnrs        LIEN 

LES NANOSTRUCTURES SEMI-CONDUCTRICES

il y a 8 mois

Texte de la 586 e conférence de l'Université de tous les savoirs prononcée le 8 juillet 2005

Par Jean-Michel Gérard * « Les nanostructures semiconductrices »

Au cours des vingt dernières années, les chercheurs ont appris à structurer la matière à l'échelle du nanomètre, en particulier pour les besoins de la microélectronique. Rappelons qu'un nanomètre, c'est un milliardième de mètre, c'est-à-dire cinquante mille fois plus petit que le diamètre d'un cheveu. On parle donc ici d'une échelle extrêmement petite, de l'ordre de quelques distances inter-atomiques au sein des molécules ou des corps solides. A l'échelle du nanomètre, les propriétés physiques sont très différentes de celles qui sont observables dans notre monde macroscopique et sont gouvernées, pour l'essentiel, par la mécanique quantique. Nous allons montrer ici qu'il est particulièrement intéressant de fabriquer des objets de taille nanométrique à partir de matériaux semi-conducteurs. Ces « nanostructures semiconductrices » nous ouvrent des perspectives d'application originales et importantes, grâce à leurs propriétés très particulières.
Nous utilisons tous au quotidien des composants nanométriques, souvent sans le savoir. A titre d'exemple, lorsque nous écoutons notre lecteur de disque compact, nous mettons en Suvre un laser semiconducteur « à puits quantique » pour lire l'information stockée sur le disque. Le cSur de ce composant est constitué par un empilement de couches semiconductrices, qui comporte notamment une couche très fine, le puits quantique, dont l'épaisseur est de l'ordre de 10 nanomètres. Ce composant a été développé il y a une vingtaine d'années et a aujourd'hui de très nombreuses applications.
Les semi-conducteurs constituent une famille de matériaux particulièrement commodes pour fabriquer des nano-structures et exploiter leurs propriétés originales. Après avoir rappelé en termes simples ce qu'est un semi-conducteur, je décrirai les effets quantiques de base attendus pour des structures semi-conductrices de taille nanométrique. Je présenterai ensuite les techniques de fabrication à cette échelle avant d'illustrer par quelques exemples les propriétés et applications des nanostructures semiconductrices.

Qu'est ce qu'un semiconducteur ?

Pour comprendre les propriétés électriques ou optiques des matériaux, il faut de façon générale connaître les états possibles pour les électrons dans le système considéré. Rappelons que ces états sont par exemple très différents pour un électron libre dans l'espace et pour un électron appartenant à un atome. Si l'électron est libre, il peut avoir n'importe quelle vitesse et par conséquent n'importe quelle énergie. S'il appartient à un atome isolé, son énergie ne peut au contraire prendre que certaines valeurs bien définies. Ceci résulte du fait que l'électron, attiré par le noyau atomique, est piégé au voisinage de celui-ci. Plus généralement, la mécanique quantique nous apprend que toute particule dont la position est confinée dans les trois dimensions de l'espace possède un ensemble discret d'énergies permises.
Considérons à présent la situation dans laquelle l'électron n'est plus dans un espace libre mais dans un solide, par exemple un morceau de fer ou un morceau de silicium. Dans ce cas, l'énergie de cet électron ne peut prendre que des valeurs comprises dans certains intervalles (ou « bandes ») d'énergie permise (voir la figure 1). Ceux-ci sont séparés par des « bandes interdites », plages d'énergie pour lesquels le système ne possède aucun état quantique permettant à l'électron d'avoir cette énergie. La connaissance de cette structure de bandes d'un matériau donné permet de définir si celui-ci est un métal ou un isolant. On connaît en effet le nombre d'électrons de ce solide et, d'après une loi physique connue sous le nom de principe de Pauli, on sait qu'on ne peut mettre dans un état quantique donné qu'un seul électron. Dans une « expérience de pensée », plaçons donc les électrons du solide à l'intérieur de ces bandes d'états disponibles. Pour cela, on remplit successivement les différents états, en commençant par ceux de plus basse énergie, jusqu'à ce que tous les électrons soient placés. Dans le cas d'un métal, ce processus s'arrête au milieu d'une bande d'états (voir figure 1). Un tel système électronique va pouvoir répondre très facilement à une sollicitation par une force extérieure, par exemple un champ électrique. En effet, les électrons qui occupent la bande partiellement remplie vont pouvoir se redistribuer aisément au sein de cette bande, puisqu'elle comprend à la fois des états occupés et des états vides très proches en énergie les uns des autres. Un tel solide sera un bon conducteur du courant, et est dit métallique. Supposons au contraire qu'on soit dans une situation pour laquelle les électrons remplissent parfaitement un certain nombre de bandes d'états, toutes les autres étant vides. Dans ce cas, il est beaucoup plus difficile de changer la configuration électronique du système, car il faut apporter une énergie importante pour faire passer un électron d'une bande d'états pleine à une bande d'états vide. Un tel solide, qui ne peut pas répondre à une sollicitation par un champ électrique, est un isolant. Plus précisément, on parlera de matériau semi-conducteur ou de matériau isolant, selon qu'il est possible ou non de rendre ce matériau partiellement conducteur en le fonctionnalisant, en suivant une méthode simple que nous allons décrire.
Nous avons vu que dans un isolant, les bandes d'états sont soit parfaitement remplies par les électrons, soit entièrement vides. On va pouvoir dès lors fonctionnaliser ce matériau en introduisant volontairement des impuretés, ce qu'on appelle « doper » le matériau. Imaginez, par exemple, que dans un cristal de silicium, vous remplaciez des atomes de silicium par des atomes de phosphore qui apportent chacun un électron en plus. Pour placer ces électrons excédentaires, il nous faut commencer à remplir une nouvelle bande, qu'on appelle bande de conduction. Puisqu'ils occupent une bande partiellement occupée, ces électrons vont pouvoir conduire le courant, et la conductibilité du matériau peut être ajustée très simplement en dosant le nombre d'électrons qu'on introduit. De la même façon, si vous insérez des impuretés qui apportent un électron en moins, la dernière bande d'état occupée, appelée bande de valence, ne sera pas complètement pleine. Elle comportera certains « trous », qui permettent ici encore au matériau de devenir conducteur. Le contrôle du dopage des semiconducteurs a constitué une étape clef pour le développement des diodes, des transistors et plus généralement pour l'essor de la microélectronique et de l'optoélectronique.

Figure 1 : Représentation schématique des états électroniques et de leur remplissage par les électrons du solide dans le cas d'un métal, d'un semiconducteur pur, et d'un semiconducteur dopé par des impuretés « donneuses d'électron ».

En considérant la figure 1 b), nous allons voir qu'un semi-conducteur non dopé présente des propriétés très spécifiques vis-à-vis de la lumière. La lumière et la matière interagissent par échange de quanta d'énergie comme l'a montré Einstein en 1905. Ces quantas (les « photons ») peuvent être vus comme des petits grains de lumière, qui ont une énergie hn, où h la constante de Planck et n la fréquence de l'onde lumineuse. Si ce quantum d'énergie hn est plus petit que la largeur de la bande interdite qui sépare la bande de valence de la bande de conduction, le principe de conservation d'énergie nous empêche de promouvoir un électron de la bande de valence à la bande de conduction. Le semi-conducteur ne peut absorber un tel photon, et est donc transparent pour un rayonnement lumineux de fréquence n. Par contre, si l'énergie hn est plus grande que la largeur de la bande d'énergie interdite, il devient possible de faire passer un électron de la bande de valence à la bande de conduction en absorbant un photon.
De plus, un semi-conducteur, peut être mis en Suvre pour émettre de la lumière de fréquence relativement bien définie. Imaginons que nous ayons placé par un moyen idoine, un certain nombre d'électrons dans la bande de conduction et un certain nombre de trous dans la bande de valence. Chaque électron pourra alors redescendre de la bande de conduction à la bande de valence en émettant un photon, avec une énergie voisine de la largeur de la bande interdite. En jouant sur la nature ou la composition du matériau semiconducteur, on peut ainsi ajuster la fréquence du rayonnement émis. Les matériaux les plus employés pour cette fonction sont le nitrure de gallium GaN, le phosphure d'indium InP, ou encore l'arséniure de gallium GaAs, tandis que le silicium, matériau roi de l'électronique, n'est pas un bon émetteur de lumière.
Le principal composant optoélectronique en termes de marché (loin devant la diode laser) est la diode électroluminescente. Ce composant très répandu est largement utilisé pour la visualisation (voyants lumineux, feux de signalisation routière, écrans plats extérieurs...) et de plus en plus pour l'éclairage. Nous reviendrons plus loin sur quelques avancées récentes importantes dans ce domaine.
On peut comprendre relativement simplement comment les diodes électroluminescentes et les diodes lasers émettent de la lumière lorsqu'on leur injecte un courant électrique (figure 2). Juxtaposons côte à côte deux morceaux de semi-conducteur dopés, l'un riche en électrons (SC « de type n ») et l'autre pauvre en électrons (SC « de type p »). Des électrons pourront alors passer de la bande de conduction du matériau de type n vers des états vides de valence du matériau de type p, passage qui s'accompagne de l'émission de photons. Afin d'entretenir ce phénomène, il faut bien entendu apporter des électrons au matériau de type n et en extraire du matériau de type p. Ceci est simplement réalisé en appliquant une tension électrique entre ces deux matériaux via des contacts métalliques.

Figure 2 : Principe de fonctionnement d'une diode électroluminescente (M = métal, SC = semi-conducteur). A droite, diodes électroluminescentes réalisées à partir du semiconducteur GaN (nitrure de gallium).

Afin d'accroître la fonctionnalité des matériaux semi-conducteurs, on peut aussi associer des semi-conducteurs de nature différente, présentant des largeurs de bande interdite différentes, de façon à réaliser une « hétérostructure » semiconductrice. Insérons par exemple une couche d'un matériau à petite bande interdite, P, au sein d'un semiconducteur G de plus grande bande interdite. Plaçons un électron dans la bande de conduction du matériau G. Lorsqu'il se déplace au sein de celui-ci, l'électron « voit » un univers essentiellement uniforme (tous les endroits se ressemblent dans un cristal, les atomes étant parfaitement bien ordonnés). A contrario, lorsqu'il arrive à l'interface entre les matériaux P et G, cet électron peut abaisser son énergie en passant de G à P, car il existe des états de conduction dans le matériau P à plus basse énergie que dans le matériau G. En quelque sorte, l'électron se comporte ici un peu comme une bille qui rencontrerait une marche d'escalier. Il était sur la marche du haut, il saute et tombe sur la marche du bas. On peut bien entendu décliner cette idée de très nombreuses façons, afin de structurer le profil de potentiel vu par l'électron. On va construire pour lui un paysage avec des collines et des vallées, dont le profil et la hauteur peuvent être dessinés quasiment à volonté en jouant avec la nature des matériaux.

Les nanostructures semiconductrices

Invention capitale, les hétérostructures semiconductrices ont déjà valu plusieurs prix Nobel à leurs inventeurs. Derniers en date, Z. Alferov et H. Kroemer se sont vus récompenser en 2000 pour avoir « développé des hétérostructures semiconductrices employées dans les domaines de l'électronique ultrarapide et de l'optoélectronique », selon les termes du comité Nobel. Les hétérostructures « quantiques » sont quant à elles apparues à la fin des années 70. Le principe reste ici le même, à ceci près qu'on va à présent structurer la matière à l'échelle du nanomètre de façon à voir apparaître des effets quantiques. Parmi les exemples les plus célèbres, on peut citer le super-réseau, qui est une sorte de millefeuille, constitué d'un empilement périodique G/P/G/P...de couches semiconductrices de grande bande interdite (G) et de petite bande interdite (P) de quelques nanomètres d'épaisseur. Les super-réseaux possèdent des propriétés de conduction électrique très particulières, dont la découverte a valu le prix Nobel 1973 à L. Esaki. On peut aussi jouer à confiner les électrons dans des nanostructures. L'exemple le plus simple, déjà cité, est le puits quantique G/P/G constitué par une couche mince P, d'épaisseur nanométrique, placée au sein d'un matériau G de plus grande bande interdite. Un électron de conduction, placé dans le puits quantique, est confiné selon une direction de l'espace, mais reste libre de se mouvoir dans les deux autres dimensions. On peut également fabriquer des fils quantiques ou des boîtes quantiques, pour lesquels l'électron est confiné selon deux dimensions ou trois dimensions. Dans le cas des boîtes quantiques, l'électron est confiné dans toutes les directions ; cette situation est tout à fait analogue au cas de l'électron piégé au voisinage du noyau dans un atome. On s'attend donc à retrouver, dans le cas des boîtes quantiques, un système présentant (comme l'atome) des états électroniques discrets, bien séparés en énergie.

Figure 3 : Représentation schématique d'un puits quantique (PQ), de fils quantiques (FQs) et de boîtes quantiques (BQs). Vue en coupe de puits quantiques de GaN dans AlN, obtenue par microscopie électronique à haute résolution (Remerciements à J.L. Rouvière et B. Daudin, CEA).

On sait réaliser des puits quantiques de bonne qualité depuis le début des années 80. A titre d'exemple, la figure 3 montre une vue en coupe d'un puits quantique de GaN au sein d'une couche de nitrure d'aluminium AlN, obtenue par microscopie électronique. Sur cette image, chaque ligne correspond à un plan d'atomes. On voit qu'en fait la structure est très proche de la perfection : d'une part, on passe de la couche de GaN à la couche d'AlN via un changement de composition abrupt à l'échelle atomique ; d'autre part, les interfaces sont presque parfaitement plates, à la présence près de quelques marches atomiques. Comment obtient-on en pratique un tel contrôle ? La perfection de ces objets résulte de la mise en Suvre d'une technique de déposition de films en couches minces, qui s'appelle l'épitaxie par jets moléculaires. Cette technique consiste à prendre un substrat, c'est-à-dire un cristal semi-conducteur sans défaut, sur lequel on va déposer l'hétérostructure désirée. Pour déposer une couche de nature donnée, par exemple en GaAs, on expose la surface du substrat à des flux d'atomes, ici de gallium et d'arsenic, évaporés à partir de cellules chauffées contenant des charges extrêmement pures de ces éléments. On ajuste la composition du matériau qu'on dépose en contrôlant les flux de ces différentes familles d'atomes, et les épaisseurs des couches déposées en jouant sur le temps de déposition. L'épitaxie par jets moléculaires se déroule dans une enceinte dans laquelle on réalise un vide résiduel extrêmement poussé (10-13 atmosphères !) de façon à éviter toute contamination par des atomes indésirables.

Les puits quantiques constituent un exemple simple de système dont les propriétés électroniques sont gouvernées par la mécanique quantique. Ces effets quantiques résultent du confinement de l'électron dans la couche « puits ». On sait depuis L. De Broglie qu'à toute particule on peut associer une onde, et que cette onde représente en fait la probabilité de présence de la particule dans l'espace. Toute onde confinée présente des fréquences de résonance particulière. Considérons par exemple la corde d'un violon ; elle a une longueur bien définie, est fixée à ses deux extrémités, et possède des fréquences de résonance spécifiques : la « note » qui lui est associée, ainsi que ses harmoniques, dont la fréquence est un multiple de celle de la note fondamentale. Il en est de même pour l'électron dans le puits quantique, dont l'onde associée va devoir s'adapter à la taille du puits. De façon analogue à la corde vibrante, dont la longueur est égale à un multiple de la demi longueur d'onde, la longueur d'onde de De Broglie l de l'électron est reliée à l'épaisseur L du puits par la relation L= n. l /2 où n est un nombre entier. De même que la longueur d'onde, l'énergie de l'électron (associée à son mouvement dans une direction perpendiculaire au plan du puits) ne peut prendre qu'un ensemble de valeurs discrètes données par l'expression suivante : . [1] Cette relation nous montre que l'électron a toujours une énergie cinétique minimale, donnée par E1, dont la valeur croît rapidement (comme 1/L2) lorsqu'on réduit la taille L du puits quantique. De même, la séparation énergétique entre les niveaux discrets de l'électron Em- En croît, elle aussi, comme 1/L2. L'étude expérimentale des puits quantiques par spectroscopie optique, par exemple l'étude de leurs propriétés d'absorption de la lumière, a parfaitement confirmé l'ensemble de ces prédictions. Les propriétés des puits quantiques ont été discutées plus en détail par E. Rosencher dans le cadre de ce cycle de conférences de l'UTLS, ainsi que leurs applications très variées en optoélectronique.

Nous allons nous intéresser plus spécifiquement dans la suite de cet exposé aux propriétés et applications des boîtes quantiques, qui ont fait l'objet de très nombreuses études au cours des dix dernières années. Initialement, ces nanostructures ont été principalement développées dans le but d'améliorer les propriétés des diodes laser. Pourquoi fabriquer des boîtes quantiques, et que s'attend t-on à gagner par rapport au laser à puits quantique ?
Ouvrons le boîtier de votre lecteur CD, et regardons à quoi ressemble la diode laser qu'il utilise pour lire le disque. Si on réalise une vue en coupe de ce composant, de façon à obtenir une image analogue à la figure 3, on verra qu'il est constitué par un empilement de couches semi-conductrices. L'une d'elles, de quelques centaines de nanomètres d'épaisseur, sert à guider le faisceau laser à l'intérieur du composant ; en son sein, on trouvera une ou quelques couches plus fines, formant des puits quantiques, qui vont amplifier cette onde laser s'ils sont excités par un courant électrique. Bien que les diodes laser soient des composants présentant des performances tout à fait remarquables, celles-ci sont cependant limitées par certaines lois fondamentales de la physique. Lorsqu'on met des électrons et des trous dans un puits quantique à la température T, l'énergie de ceux-ci n'est pas bien définie, mais distribuée sur une bande d'énergie de largeur typique kT, où k est la constante de Boltzmann. Le laser, quant à lui, fonctionne avec une fréquence d'émission n bien précise. On voit donc que la plupart des paires électron-trou injectées dans le puits, dont l'énergie est différente de hn, ne participent pas à l'émission laser. Ces paires peuvent cependant se recombiner, en émettant un photon par émission spontanée à une énergie différente de hn. Cette consommation d'électrons et de trous, inutiles pour le fonctionnement du laser, accroît la valeur du courant de seuil du laser, courant minimal qu'il faut lui injecter pour assurer son fonctionnement.
En 1982, Y. Arakawa et Y. Sakaki, de l'Université de Tokyo, ont proposé de réaliser des lasers à boîtes quantiques. L'idée sous-jacente était simple, conceptuellement du moins. Dans une boîte quantique, l'électron est confiné dans toutes les directions de l'espace, et ses états électroniques possibles sont discrets, comme pour un atome isolé. Si la boîte est assez petite, les états vont être très bien séparés en énergie comme on l'a vu auparavant, en discutant des effets de confinement. Supposons donc que cette séparation soit plus grande que l'énergie thermique kT (qui vaut 25 meV à température ambiante). Lorsqu'on injecte un électron dans la boîte quantique, celui-ci ne pourra occuper qu'un seul état, celui de plus basse énergie, car l'énergie thermique est insuffisante pour lui permettre d'occuper des états plus hauts en énergie. Il en est de même pour un trou, dans les états de valence de la boîte quantique. On espère donc, si les boîtes quantiques sont toutes identiques, que tous les électrons et les trous injectés vont travailler à la même énergie, ce qui devrait révolutionner les propriétés des lasers : on s'attend par exemple à ce que le courant de seuil soit réduit par un facteur 100 !
Cela étant dit, il faut que l'ensemble de boîtes quantiques satisfasse, pour atteindre cet objectif, un ensemble de conditions draconiennes. Tout d'abord, on veut que les états de la boîte quantique soient très bien séparés en énergie (à l'échelle de l'énergie thermique kT), de façon à ce que seul le premier état électronique de la boîte soit peuplé. Un calcul simple montre qu'alors la boîte quantique doit être plus petite que 15 nanomètres environ pour chacune de ses trois dimensions. Bien entendu, il faut aussi que les boîtes quantiques soient pratiquement identiques. En effet, la position des niveaux quantiques dans une boîte dépend de la taille de la boîte ; elle en dépend même très fortement pour un objet aussi petit, puisque l'énergie de confinement varie comme 1/L2, comme on l'a vu plus haut. On peut montrer facilement que la dispersion des tailles des boîtes quantiques doit être nettement plus petite que 15%. A notre échelle, une précision relative de 15% paraît quelque peu grossière, mais dans le cas présent, cela signifie que les boîtes quantiques doivent être fabriquées avec une précision absolue nettement meilleure que 2 nanomètres ! Enfin, il nous faut mettre en Suvre suffisamment de boîtes quantiques pour que le laser fonctionne effectivement, ce qui implique de fabriquer de l'ordre de un milliard à cent milliards de boîtes par centimètre carré. Chacune de ces trois contraintes, et a fortiori leur combinaison, paraissent extrêmement difficiles à remplir.

Comment fabriquer des boîtes quantiques ?

De nombreuses approches ont été explorées pour fabriquer des boîtes quantiques au cours des vingt dernières années. De façon imagée, on peut dire que la première à avoir fait l'objet d'un intérêt soutenu est celle du sculpteur. On part d'un puits quantique, qu'on cisèle au burin pour former un plot vertical, qui ne contient qu'une toute petite partie du puits. On forme de cette façon une boîte quantique pour laquelle l'électron est confiné suivant un axe vertical par la modulation de composition du semiconducteur (comme pour le puits quantique), et latéralement par les bords du plot. On sait fabriquer de tels objets en utilisant les outils de nanofabrication couramment employés en microélectronique, en particulier la lithographie électronique (qui permet de dessiner des motifs de taille nanométrique dans une résine à l'aide d'un faisceau d'électrons), et la gravure sèche assistée par plasma, qui permet de reproduire ce motif dans le semiconducteur. Bien qu'on ait réussi à fabriquer des boîtes quantiques par cette voie dès 1990, cette approche aujourd'hui abandonnée pose deux problèmes majeurs. D'une part, la lithographie électronique est une technique séquentielle ; il nous faut dessiner le motif désiré dans la résine boîte par boîte. Cette étape est donc fastidieuse et nécessairement coûteuse. D'autre part, on ne sait pas lithographier une résine organique à une échelle inférieure à 3 nanomètres environ. Cette approche n'est donc pas adaptée pour fabriquer un ensemble de boîtes quantiques avec le degré de précision requis pour faire un laser performant.
Fort heureusement, il s'est produit au début des années 90 deux miracles, de ceux dont la Nature a le secret. On a en effet alors découvert qu'il est possible d'obtenir des boîtes quantiques presque identiques très simplement, par auto-assemblage. Nous allons à présent présenter deux méthodes de fabrication de ce type, qui sont aujourd'hui très couramment employées.
La synthèse chimique de boîtes quantiques est assez proche de notre expérience quotidienne. Prenons une casserole d'eau salée, que nous laissons trop longtemps sur le feu. Au début, l'eau s'évapore progressivement, sans qu'on observe de changement particulier. A partir d'un certain moment, on verra cependant de tout petits cristaux de sel commencer à se déposer sur les bords de la casserole. L'eau salée a atteint sa concentration de saturation, ce qui conduit à la précipitation du sel excédentaire sous forme de petits cristaux solides. On peut faire à peu près la même chose à l'échelle nanométrique, avec des semi-conducteurs, par exemple avec le séléniure de cadmium CdSe. Dans la pratique, on prend un récipient dans lequel on met en solution de l'oxyde de cadmium dans un solvant organique. On injecte ensuite brutalement du sélénium dans la solution. Ce faisant, on dépasse le seuil de saturation pour CdSe et on déclenche la nucléation d'un très grand nombre de cristaux nanométriques de CdSe. A ce stade, les molécules de solvant viennent se fixer à la surface des nanocristaux, ce qui va ralentir leur croissance. Du fait de leur formation quasi-simultanée et de leur croissance lente, les nanocristaux conservent des tailles très voisines au cours du temps. Lorsqu'on arrête la croissance à un moment donné en cessant d'apporter du sélénium à la solution, on obtient un ensemble de nanocristaux dont la dispersion des tailles peut être de l'ordre de 5 %, ce qui est tout à fait remarquable pour des objets dont la taille n'est que de 3 nanomètres ! Cette merveilleuse homogénéité est illustrée par le cliché de microscopie électronique présenté sur la figure 4.

Figure 4 : A gauche, vue au microscope électronique d'un ensemble de nanocristaux de CdSe obtenus par synthèse chimique. La fluctuation relative de leur rayon R est de l'ordre de 5%. A droite, observation sous éclairage ultraviolet de flacons contenant des nanocristaux de CdSe dans un solvant: la couleur de la suspension colloïdale peut être ajustée dans tout le spectre visible en jouant sur la taille moyenne des nanocristaux. Remerciements à P. Reiss et J. Bleuse (CEA).

La seconde approche permet de fabriquer des boîtes quantiques par auto-assemblage en utilisant -comme pour les puits quantiques- l'épitaxie par jets moléculaires. Contrairement aux nanocristaux, ces boîtes quantiques vont pouvoir être intégrées facilement au sein d'un composant semi-conducteur, par exemple un laser. Pour présenter cette méthode, considérons une image d'une surface de GaAs sur laquelle on a déposé deux couches moléculaires (soit un demi-nanomètre en moyenne) d'InAs. Cette image, présentée figure 5, a été obtenue par microscopie à force atomique, une technique qui permet d'avoir une résolution à l'échelle atomique sur la topographie d'une surface. On constate ici la formation spontanée d'un ensemble dense d'îlots de taille nanométrique à la surface de l'échantillon. Ce mode de croissance tridimensionnel avec formation d'îlots est en fait observé pour un très grand nombre de couples de matériaux semi-conducteurs.
Pourquoi ce mode de croissance tridimensionnel est-il observé ici ? Lorsqu'on dépose par croissance épitaxiale un semiconducteur A sur un substrat S, on choisit en général deux matériaux pour lesquels la géométrie d'agencement des atomes et leurs distances mutuelles sont les mêmes. Les atomes déposés pour former la couche A adoptent alors de façon naturelle le même ordre cristallin que dans le substrat. (On rencontre une situation analogue lorsqu'on joue aux LegoTM : on peut facilement accrocher des pièces rouges sur un plan de pièces blanches). La croissance se fait alors couche atomique par couche atomique et permet de réaliser des puits quantiques. La situation est différente pour InAs et GaAs, qui ont une même structure cristalline, mais des distances inter-atomiques assez différentes (7% environ). (Une faible différence de distance entre plots d'accrochage suffit pour que les pièces de jeux de constructions différents soient incompatibles !). Pour déposer une couche d'InAs sur GaAs, il va falloir déformer la maille cristalline d'InAs, de façon à adapter la distance entre atomes voisins dans le plan de la couche au paramètre de maille du substrat. Une croissance couche par couche reste ainsi possible, mais la déformation élastique de la couche déposée a un coût en énergie important. Il y a deux solutions pour relaxer cette énergie élastique. La première repose sur la création de défauts cristallins, les dislocations. Une autre solution, adoptée par la Nature dans le cas d'InAs sur GaAs, réside dans la formation d'îlots tridimensionnels. Les atomes à la surface de l'îlot n'ayant pas d'atomes voisins, ils peuvent se « pousser de côté » pour donner plus de place aux autres. Cette morphologie particulière permet donc à la couche d'InAs contrainte de diminuer son énergie élastique.

Figure 5 : A gauche, vue au microscope à force atomique de la surface d'une couche fine d'InAs épitaxiée sur un substrat de GaAs ; les îlots d'InAs ont une hauteur moyenne de 5 nm et une largeur de 20 nm environ à leur base. A droite, vue en coupe d'un plan de boîtes quantiques d'InAs dans GaAs, obtenue par microscopie électronique. Remerciements à JM Moison et A Ponchet, CNRS.

Une fois qu'on a formé ces îlots nanométriques d'InAs, il suffit de déposer une nouvelle couche de GaAs en surface. On obtient alors des inclusions d'InAs, matériau de petite bande interdite, au milieu de GaAs, matériau de plus grande bande interdite, qui constituent de ce fait des boîtes quantiques. Ce procédé de fabrication collectif permet de réaliser en quelques secondes de l'ordre de 10 à 100 milliards de boîtes quantiques par centimètre carré. Il est de surcroît extrêmement propre, puisqu'il se déroule dans l'enceinte du bâti d'épitaxie par jet moléculaire. Quant aux fluctuations de taille, celles-ci ne dépassent pas 7 à 10% lorsque le procédé est optimisé, et sont donc d'amplitude suffisamment faible pour qu'on puisse exploiter ces boîtes quantiques dans des composants optoélectroniques.

Quelques propriétés optiques des nanocristaux et des boîtes quantiques

Considérons à présent les propriétés optiques de ces nano-objets. Nous allons voir que celles-ci présentent des signatures très claires d'effets quantiques. Observons tout d'abord la figure 4, qui présente une série de petites fioles contenant des nanocristaux en solution. Ceux-ci sont constitués du même semi-conducteur, le sélénium de cadmium CdSe. Cependant, on a laissé croître ces nano-cristaux plus ou moins longtemps d'un échantillon à l'autre, de sorte que le diamètre moyen varie graduellement de 3 nanomètres, pour la fiole de gauche à 5nm pour celle de droite. Cette variation de taille provoque un changement spectaculaire de la couleur des nano-cristaux. Cette couleur, qui est ici observée sous excitation par une lampe UV (on est donc en train d'observer l'émission des nano-cristaux), reflète l'énergie de bande interdite de ces boîtes quantiques. Parce qu'on confine fortement l'électron dans ces nano-objets, l'énergie des états électroniques, et donc la largeur de la bande interdite, sont très différentes de celle du semi-conducteur massif CdSe. En ce qui concerne les applications associées à cet effet, il faut mentionner qu'une technique très voisine est employée pour fabriquer des filtres colorés, très utilisés dans les laboratoires d'optique. Au lieu de réaliser la croissance des nanocristaux en solution, on peut en effet les faire précipiter au sein d'une matrice vitreuse, pendant que le verre est fondu. Ce procédé était déjà connu au XVIIème siècle par les artisans verriers de Murano.
Revenons à présent aux boîtes quantiques d'InAs dans GaAs obtenues par épitaxie. Lorsqu'on observe leur émission collective, on constate tout d'abord que sa distribution spectrale est centrée autour d'une énergie hn beaucoup plus grande que la bande interdite du semiconducteur massif InAs, et qui croît lorsque la taille moyenne des boîtes quantiques diminue. Ici encore, le confinement quantique des électrons et des trous entraîne une modification très marquée de la bande interdite du système et donc de ses propriétés d'émission. On constate par ailleurs que cette émission collective est distribuée sur une gamme spectrale très large, typiquement cent mille fois plus large que pour un atome ! D'où cela vient-il ? On se doute que les fluctuations de taille de boîte à boîte sont partiellement responsables de ce résultat. Pour confirmer cette hypothèse et connaître les propriétés intrinsèques des boîtes quantiques, il faut isoler et étudier une boîte quantique unique. Partant d'un plan de boîtes quantiques tel que celui de la figure 5, on va graver celui-ci de façon à définir des plots, dont la taille est de l'ordre de 100 nanomètres, et qui ne contiennent que quelques boîtes, voire une seule boîte. Lorsqu'on réalise cette expérience, on peut observer un spectre d'émission constitué de quelques raies spectrales très fines, qui correspondent chacune à une boîte quantique spécifique (voir la figure 6). Ce comportement, observé à basse température (T

Figure 6 : Spectre d'émission mesuré à basse température (10K) pour un ensemble de boîtes quantiques (à gauche) et pour une boîte quantique isolée, à droite. On notera que l'échelle des énergies est environ 100 fois plus petite pour le spectre de la boîte unique.

Lorsqu'on souhaite discuter les applications futures des boîtes quantiques, par exemple dans le domaine des lasers, il est bien entendu essentiel de considérer leurs propriétés optiques à température ambiante. Nous avons précédemment montré qu'à basse température, une boîte quantique émet, comme un atome, un rayonnement de très faible largeur spectrale. Malheureusement, on perd cette propriété très séduisante dès lors qu'on dépasse une température supérieure à une centaine de Kelvin typiquement. A température ambiante (300K), la raie d'émission observée pour une boîte unique est voisine de 10 milli-électrons volt (soit environ kT/2), ce qui est comparable à la largeur de raie observée pour un puits quantique. On est donc ici très loin de l'image de l'atome artificiel. Plus on élève la température, plus les vibrations des atomes constituant le cristal semiconducteur sont importantes. Ces vibrations cristallines viennent perturber le système électronique et de ce fait élargissent l'émission associée à une boîte unique. Ce résultat, qui n'a été découvert que relativement récemment, nous montre donc que l'image de l'atome artificiel isolé n'est pas du tout valide à haute température. Une boîte quantique est un système électronique localisé fortement couplé à son environnement. En sus de son importance conceptuelle, ce résultat nous invite à reconsidérer les applications initialement envisagées pour les boîtes quantiques.

Quelles applications pour les boîtes quantiques ?

L'observation de raies d'émission larges pour les boîtes quantiques isolées à 300K a sonné le glas du vieux rêve d'Arakawa et Sakaki : il ne sera pas possible d'obtenir un laser à boîte quantique 100 fois plus performant qu'un laser à puits quantique. L'idée de départ était d'avoir une raie d'émission très fine - pour un ensemble de boîtes quantiques très similaires- , qui permette de bien mieux utiliser les paires électron-trou injectées qu'avec un puits quantique. On voit ici que pour une raison tout à fait intrinsèque, ce couplage aux vibrations cristallines, la largeur de raie d'une boîte unique et donc a fortiori d'un plan de boîtes ne peut pas être beaucoup plus étroite que pour un puits quantique.
Très souvent, dans le monde de la recherche, lorsqu'un rêve s'écroule, dix autres naissent. C'est ici le cas. En s'attachant à étudier les propriétés spécifiques des boîtes quantiques, on leur trouve jour après jour de nombreuses opportunités d'application. Il ne saurait ici être question d'en faire une présentation exhaustive ; je n'en citerai donc que quelques unes, choisies pour leur valeur exemplaire.
Plusieurs équipes de recherche ont développé des lasers à boîtes quantiques émettant au voisinage de 1.3 µm - l'une des principales longueurs d'onde employées pour les télécommunications sur fibre optique -, lasers dont les propriétés sont beaucoup moins sensibles à la température celles des lasers à puits quantiques disponibles dans la même gamme spectrale (Cette propriété résulte de la densité d'états discrète des boîtes quantiques : faire passer un électron d'un état à un autre requiert un changement notable de son énergie). Bien que les lasers à boîtes quantiques soient un peu moins performants que les lasers à puits quantiques, leur faible sensibilité aux variations de température permet de simplifier le circuit électronique d'alimentation et de contrôle du laser, et de se dispenser de systèmes complexes de régulation en température. Cette simplification a, bien entendu, a un impact très fort en termes de coût de revient global des modules laser pour les télécommunications à 1.3 µm. Plusieurs start-ups exploitant cette opportunité ont vu le jour aux Etats-Unis, en Europe et au Japon.
C'est cependant dans un domaine différent des lasers, celui des diodes électroluminescentes, que les boîtes quantiques ont trouvé leur principal domaine d'application à ce jour. Les diodes électro-luminescentes (ou « DELs » pour light emitting diodes) représentent un marché colossal supérieur à 3 milliards d'euros par an, et de loin le plus gros marché des composants optoélectroniques. Ce composant très répandu autour de nous est employé pour des fonctions de visualisation et d'éclairage. Les écrans plats extérieurs en couleur, tel que celui que vous voyez sur la tour Montparnasse, reposent sur l'émission de dizaines de millions de DELs. Elles assurent également l'éclairage de l'écran de votre téléphone portable, du tableau de bord des véhicules automobiles récents, et sont présentes dans tous les feux de signalisation routière. Les DELs présentent en fait des avantages très importants par rapport aux lampes à incandescence. Elles consomment typiquement 10 fois moins d'énergie et sont « éternelles », en ce sens que leur durée de vie est 10 fois plus longue que la durée de vie du système dans lequel elles sont incorporées. On saisit très vite l'intérêt d'intégrer ces composants dans un système complexe tel qu'une voiture ; nul n'a envie de démonter un tableau de bord pour changer une simple ampoule ! Si on était capable de remplacer toutes les lampes à incandescence par des DELs blanches, on réduirait aussi très fortement la consommation énergétique associée à l'éclairage, et de plusieurs pour cents la consommation énergétique globale. Les enjeux associés à cette utilisation de plus en plus vaste des DELs sont donc considérables sur un plan économique mais aussi écologique.

Figure 7: Vue en coupe de la couche active d'une DEL bleue commerciale, constituée par une couche très fine d'alliage (InxGa1-x)N dans GaN. Cartographie de la composition chimique de l'alliage, obtenues par microscopie électronique. On observe un phénomène de démixtion et la formation d'inclusions de taille nanométriques très riches en indium (remerciements P. Bayle, CEA).

En 1995, ce domaine a connu une véritable révolution, avec la commercialisation par une société japonaise de DELs bleues et vertes très brillantes. Jusque là en effet, on ne savait produire efficacement de la lumière avec les DELs que dans le rouge ou l'orange. Un épais mystère était attaché au fonctionnement de ces nouvelles DELs. En effet, celles-ci sont réalisées à partir de nitrure de gallium GaN, pour lequel on ne dispose pas de substrat bien adapté à sa croissance épitaxiale. La croissance des DELs GaN est le plus souvent réalisée sur un substrat de saphir, dont le paramètre de maille cristalline est très différent de celui de GaN. De ce fait, la couche épitaxiée contient un très grand nombre de défauts, les dislocations, qui sont connus comme des « tueurs » de paires électron-trou. Celles-ci sont en effet capturées très efficacement par les dislocations, et se recombinent sur ce défaut en générant de la chaleur en lieu et place de photons. Pour les semiconducteurs usuels, on doit donc travailler avec un matériau absolument sans dislocations si on veut obtenir des DELs efficaces. L'analyse par microscopie électronique de la couche active des DELs bleues a donné la clef de ce mystère quelques années plus tard. On s'est alors rendu compte que cette couche active, qu'on croyait être un puits quantique d'alliage (InGa)N, est en fait un ensemble de boîtes quantiques. En cours de croissance, cet alliage présente en effet un phénomène de démixtion, avec formation d'agrégats de taille nanométriques riche en InN, qui constituent des boîtes quantiques (figure 7). Cette nanostructuration de la couche active a des conséquences très importantes. En effet, le piégeage des électrons et les trous dans les boîtes quantiques inhibe presque totalement leur diffusion vers les dislocations, et assure ainsi leur recombinaison radiative. Cette nanostructuration spontanée des couches d'(InGa)N a ainsi engendré un marché de plusieurs milliards d'euros par an !
Les boîtes quantiques offrent de nombreuses autres perspectives d'application, qui font actuellement l'objet d'études exploratoires. L'un des objectifs les plus séduisants est la réalisation d'une source de photons uniques, composant qui exploite l'émission d'une unique boîte quantique. Les composants considérés jusqu'ici, lasers ou DELs, fonctionnent avec des dizaines de milliards de boîtes. Travailler avec une seule boîte quantique nous permet de réaliser une fonction optoélectronique importante et originale, l'émission à la demande de photons un par un. Comme l'a expliqué Philippe Grangier dans une conférence récente de l'Université de Tous Les Savoirs, la disponibilité d'une telle source lumineuse est essentielle en vue d'une application future de la cryptographie quantique à grande échelle. Rappelons ici simplement que la cryptographie quantique propose des protocoles de communication originaux, qui s'appuient sur les lois de la mécanique quantique pour garantir une confidentialité absolue de l'information échangée. Un autre champ d'application des sources à photon unique pourrait être la métrologie. Si on est capable, à la demande, d'émettre une impulsion lumineuse contenant un et un seul photon, on pourrait aussi répéter l'opération 1 million de fois, et émettre précisément 1 million de photons. On pourrait donc utiliser cette source comme étalon de flux lumineux ou plus généralement d'énergie.
Comment préparer un photon unique ? C'est en fait relativement délicat. Un photon unique est un état quantique de la lumière, et il est absolument impossible de le générer par des moyens « classiques » par exemple à l'aide d'un laser, d'une DEL ou d'une lampe à incandescence. A titre d'exemple, lorsqu'un laser génère des impulsions lumineuses contenant en moyenne n photons, le nombre de photons présente en fait une fluctuation d'impulsion à impulsion égale à la racine de n. Pour émettre des photons un par un, il faut en fait utiliser un système quantique unique, tel qu'un atome unique. Isolons par la pensée un atome dans l'espace, et excitons le à l'aide d'un rayonnement lumineux dont la fréquence correspond à l'une de ses raies spectrales. L'absorption d'un photon par l'atome s'accompagne du passage d'un électron d'un état « b » bien défini vers un état « h » lui aussi bien défini, et d'énergie plus élevée. Dans cette nouvelle configuration électronique, l'atome ne peut plus absorber la lumière, puisque l'état « b » est vide. On voit par conséquent qu'un atome excité de cette façon ne peut stocker qu'une excitation élémentaire : lorsqu'on coupe le faisceau de pompage, il se désexcite en émettant un unique photon. En pratique, on sait piéger un atome unique dans l'espace par des méthodes optiques, mais pour une durée qui n'excède pas quelques secondes. Il est ici beaucoup plus commode d'employer une boîte quantique comme « atome artificiel » pour réaliser la même fonction. En collaboration avec des collègues du CNRS, nous avons proposé un protocole original, qui permet de générer des photons un par un à la demande à l'aide d'une boîte quantique. Celui-ci tire en fait parti de la forte interaction de Coulomb entre électrons et trous piégés dans une même boîte. La boîte quantique peut être excitée au choix à l'aide d'un faisceau optique ou à l'aide d'une impulsion électrique, ce qui ouvre la voie au développement de sources de photons uniques compactes et pratiques pour la cryptographie quantique. Plusieurs dizaines d'équipes dans le monde y travaillent aujourd'hui.
Je présenterai enfin un nouvel exemple d'application des nano-cristaux semiconducteurs. A la différence des boîtes quantiques obtenues par croissance sur un substrat, ceux-ci peuvent être dispersés dans différents milieux, en particulier liquides. Ils constituent aujourd'hui une classe de marqueurs fluorescents particulièrement intéressante pour la biologie. On sait aujourd'hui assurer la biocompatibilité de ces nano-objets, ainsi que leur solubilisation dans les liquides physiologiques, en les enrobant par exemple de silice. On sait aussi greffer sur leur surface du matériel biologique, par exemple une protéine ou un fragment d'ADN monobrin, afin de le fonctionnaliser. En cartographiant l'émission des nanocristaux dans l'espace, on peut voir où ce matériel biologique est allé se fixer à l'intérieur d'un organisme, éventuellement jusqu'à l'échelle intracellulaire. Bien qu'il existe des colorants organiques qui remplissent une fonction similaire, les nanocristaux présentent des atouts très importants. Tout d'abord, ils sont dix à cent fois plus stables dans le temps, ce qui permet de faire de longues expériences. Ensuite, le spectre de leur émission est moins large ; il est donc possible d'employer en parallèle des nanocristaux émettant dans des gammes de longueur d'onde différentes et d'obtenir simultanément des informations de nature différente. Enfin, leur biocompatibilité est bien supérieure à celle des colorants organiques, qui sont pour la plupart hautement toxiques.

En conclusion, je voudrais conclure cette présentation, en soulignant le caractère extrêmement vivant de ce domaine. Loin d'être figées, les techniques de nanofabrication font l'objet de nombreux développements, qui permettent par exemple de construire des systèmes quantiques plus complexes (« molécules artificielles » constituées d'un assemblage de boîtes quantiques, dopage par des atomes magnétiques, intégration de boîtes quantiques dans des microrésonateurs optiques...). Mois après mois, de nouveaux résultats viennent enrichir la palette des effets quantiques observables avec les nanostructures semi-conductrices et élargir leur champ d'application potentiel.

*CEA Grenoble, CEA/DRFMC/SP2M, 17 rue des Martyrs, 38054 Grenoble Cedex 9.
Adresse électronique : jean-michel.gerard@cea.fr

[1] Remarquons que l'électron reste libre de se mouvoir dans le plan du puits quantique ; l'énergie cinétique associée à ce mouvement peut prendre une valeur positive quelconque.

 

 DOCUMENT       canal-u.tv     LIEN  

(pour  consulter  la  vidéo, inscrire  le TITRE  dans  le  moteur  de  recherche  de  CANAL U )

LA TRANSGENÈSE ET SES APPLICATIONS

il y a 8 mois

Texte de la 30ème conférence de l'Université de tous les savoirs réalisée le 30 janvier 2000 par Louis-Maris Houdebine

LA TRANGENESE ET SES APPLICATIONS

Les découvertes des cinquante dernières années nous ont familiarisé avec lidée que la vie nest quun ensemble de réactions physico-chimiques qui se déroulent à lintérieur despaces bien délimités, les cellules. Ces actions sont effectuées pour une part essentielle par des protéines (enzymes, facteurs sanguins, hormones, anticorps, etc.) Les protéines de tous les organismes vivants sont composées des mêmes vingt acides aminés assemblés les uns derrière les autres pour former des chaînes dont la longueur est très diverse. Les protéines peuvent contenir de quelques unités à quelques milliers dacides aminés. Le nombre de combinaisons théoriques des vingt acides aminés est considérable et lensemble des protéines existantes ne représente quune faible partie des possibilités. Lactivité biologique des protéines est directement liée à lenchaînement des acides aminés mais dune manière très complexe. Les chaînes formant les protéines se replient de multiples manières qui sont définies par la séquence des acides aminés. Ces repliements forment les sites actifs des protéines.

La découverte des protéines sest accompagnée de la mise en évidence dune molécule omniprésente dans les organismes vivants : lacide désoxyribonucléique ou ADN qui renferme linformation génétique. Cette molécule est formée dune chaîne de phosphate et de désoxyribose sur laquelle sont accrochées quatre structures appelées bases et symbolisées par les lettres ATGC.

De multiples observations ont montré quun gène est constitué par une région de la chaîne dADN et quà un gène correspond essentiellement une protéine. Des études systématiques ont permis détablir que la succession des bases dans un gène définit directement lenchaînement des acides aminés de la protéine correspondante selon un code universel : le code génétique. Trois bases successives déterminent ainsi quel acide aminé doit participer à la formation de la protéine.

LADN peut donc considérer comme une banque de données dont la cellule fait usage en fonction de ses besoins en protéines. Une copie dun gène sous la forme dun acide ribonucléique messager (ARNm) est formé à la demande de la cellule et décrypté pour synthétiser la protéine correspondante. Ces faits établis il y a bientôt quarante ans définissaient déjà tout le principe du génie génétique. En effet, si les messages génétiques contenus dans lADN ne sont définis que par la succession des quatre bases, il doit être possible de modifier ces messages voire den créer de nouveaux dès lors que lon maîtrise la chimie de lADN. Les techniques essentielles qui permettent de manipuler ainsi lADN ont été définies il y a maintenant un peu plus de vingt ans et avec elles est né le génie génétique qui est désormais un outil très largement utilisé dans de nombreux laboratoires.

Il est admis quil y a une continuité stricte entre la matière inorganisée qui a précédé le Big Bang il y a quinze milliards dannée et la matière très organisée que constituent les organismes vivants apparus sur la terre il y a quatre milliards dannées. Les minéraux représentent un état de complexité intermédiaire.

Les organismes vivants sont eux-mêmes dune complexité très variable qui va croissante des bactéries aux mammifères et à lhomme en passant par les levures et les plantes. Très logiquement, on constate que les organismes vivants les plus complexes sont ceux qui ont le plus grand nombre de gènes. Les bactéries ont ainsi de 350 à 4000 gènes, les levures environ 6000, un des plus petits animaux connus de la famille des nématodes 19099, les plantes environ 20000 et lhomme autour de 100000 (le chiffre proche de la réalité sera connu au cours de lannée 2000). Ces données sont particulièrement révélatrices de la manière dont lévolution a procédé pour faire émerger les différentes espèces. Les mammifères sont en effet beaucoup plus complexes que les bactéries et ils nont pourtant que 50 fois plus de gènes. Les biologistes savent déjà que les gènes, les protéines et les molécules qui en dérivent sont capables dinteragir de manière de plus en plus complexe au fur et à mesure que lorganisme est lui-même devenus plus évolué. La complexité du vivant naît donc au moins autant dune combinatoire de plus en plus sophistiquée de molécules qui le compose que dune accumulation des informations génétiques primaires.

1/ Des gènes au génie génétique

Ces faits ont une répercussion directe et profonde sur les expériences impliquant le génie génétique. Les techniques actuelles permettent virtuellement disoler nimporte quel gène, den étudier la structure, de le modifier et de le réintroduire dans une cellule ou un organisme vivant. Cette dernière opération est une des plus essentielles. Un gène peut en effet se comparer à une bande magnétique. Tous les deux contiennent des messages linéaires codés et aisément modifiables. Ces messages sont en soi inertes. Ils nont dintérêt que par les produits qui en sont issus : une image ou un son dans un cas, une protéine dans lautre cas. Une différence fondamentale existe toutefois entre les deux systèmes ; le lecteur de bande magnétique est indifférent au message quil décode ce qui nest le plus souvent pas le cas pour les gènes dans la mesure où les protéines peuvent agir sur la cellule ou sur lorganisme entier qui les synthétisent.

Un gène peut dans une certaine mesure être comparé à un micro-ordinateur qui contient un message spécifique. Lintroduction dun gène isolé dans une cellule et à fortiori dans un organisme entier revient alors à connecter le micro-ordinateur à un réseau de micro-ordinateurs déjà interconnectés et interagissant. Une telle incursion peut enrichir le réseau de manière harmonieuse ou à linverse perturber profondément son fonctionnement.

La transgenèse est lopération qui consiste à ajouter un gène étranger à un organisme pluricellulaire (plantes ou animaux) entier ou à remplacer un des ses gènes par un autre. Il est bien évident que dans lun et lautre cas, les effets du transgène sur lorganisme ne peuvent être totalement prévisibles aussi bien connues que soient les propriétés du gène étranger et de la protéine correspondante. La transgenèse est donc par essence un retour au complexe, lisolement dun gène et son étude in vitro étant au contraire une étude volontairement réductionniste. Les conséquences dune transgenèse sont donc à priori inévitablement en partie inconnues. La gestion du complexe que représentent lagriculture et lélevage est en réalité une activité très familière pour les communautés humaines. La sélection génétique consiste classiquement à repérer les effets biologiques intéressants (prolificité, résistance aux maladies etc.) apparus spontanément chez quelques individus au hasard de la redistribution des gènes lors de la reproduction sexuée et de mutations résultant derreurs dans la réplication de lADN. La reproduction privilégiée des individus dotés des propriétés biologiques intéressantes conduit progressivement à létablissement de lignées ou de races. Cette méthode de sélection a largement fait ses preuves et nous en bénéficions grandement. La sélection classique est toutefois une opération le plus souvent réalisée en aveugle. Le sélectionneur ne sait en effet le plus souvent rien des gènes quil a sélectionnés ni de leurs effets individuels. Seul le résultat global est généralement pris en compte. Le remaniement des chromosomes dans les cellules germinales consiste à redistribuer les gènes parentaux de manière aléatoire. Ceci explique que les enfants dun même couple sont différents. Le remaniement des chromosomes parentaux concerne de longs segments dADN qui portent de nombreux gènes contigus. La sélection dun gène ayant un intérêt biologique attendu saccompagne donc inévitablement de la co-sélection de gènes voisins inconnus dont les effets ne sont pas toujours bénéfiques. Ainsi, des taureaux, des verrats, etc. retenus comme géniteurs en raison de leur potentiel génétique intéressant savèrent parfois à lusage porter également un gène parfaitement nuisible pour lélevage. Ces géniteurs doivent alors être éliminés non sans parfois avoir entraîné des pertes financières importantes. Il en est de même pour la sélection végétale.

La transgenèse évite, par essence, une bonne partie de ces effets imprévisibles. La modification génétique quelle représente a des effets en grande partie attendus, dans la mesure où les propriétés du gène étranger sont elles-mêmes connues. La transgenèse ne correspond par ailleurs quà une seule modification génétique de lorganisme. La transgenèse vue ainsi est donc en principe moins hasardeuse que la sélection classique. Tout bien considéré, les mutations obtenues par transgenèse ne sont généralement pas plus complexes que celles engendrées par les mécanismes naturels à chaque cycle de reproduction. La gestion des organismes transgéniques peut donc logiquement sinspirer de celle des organismes obtenus par sélection classique.

2/ Les techniques de transfert de gènes

Le transfert dun gène isolé à un organisme nest quexceptionnellement un phénomène spontané. Si tel nétait pas le cas, lintégrité des espèces ne serait pas une réalité puisque les organismes vivants sont très fréquemment en contact direct avec lADN dautres espèces. Les virus qui ne sont constitués que de quelques gènes associés à des protéines ont une capacité exceptionnelle à pénétrer dans les cellules. Ce processus que lon nomme une infection est primordiale pour le virus qui doit absolument utiliser la machinerie cellulaire dont il est dépourvu pour se répliquer. Lintroduction de gène étranger destiné à obtenir des organismes transgéniques requiert donc des méthodes expérimentales variées. La plus utilisée chez les animaux consiste à procéder à une microinjection directe du gène isolé en solution dans le noyau ou le cytoplasme dun embryon au stade une cellule. Dans une petite proportion de cas (de lordre de 1%) le gène étranger sintègre à LADN de lembryon et se transmet ainsi à ses cellules filles puis à sa descendance.

Cette méthode ne peut être appliquée aux végétaux. Deux techniques sont dans ce cas le plus souvent utilisées. Lune consiste à introduire le gène étranger dans un vecteur dérivé dune bactérie. Celui-ci pénètre aisément dans la cellule végétale et sintègre dans son ADN. Lautre méthode est utilisée pour les végétaux ne pouvant bénéficier du vecteur. Elle consiste à faire pénétrer de force des microbilles métalliques enrobées dADN contenant le gène étranger dans les cellules végétales en les projetant à haute vitesse. Dans lun et lautre cas, le transfert de gène doit être suivi dune régénération complète dune plante à partir de la cellule ayant subi la modification génétique.

Laddition de gène est lopération la plus simple et de loin la plus fréquemment pratiquée. Le remplacement spécifique de gène est également hautement souhaitable. Il permet en pratique de remplacer un gène de lorganisme par un gène inactif (ceci revient alors à supprimer sélectivement un gène de lorganisme) ou par un autre gène actif. Cette opération nest actuellement possible que chez les animaux (et les microorganismes). Elle implique en effet que lADN étranger contenant le gène de remplacement reconnaisse très spécifiquement le gène ciblé pour pouvoir se substituer à lui par un processus de recombinaison homologue. Cette opération nest finalement couronnée de succès que si la cellule dans laquelle a eu lieu le remplacement de gène peut donner naissance à un organisme entier. Cette régénération très couramment pratiquée chez bon nombre de plantes est particulièrement malaisée chez les animaux. En pratique, la cellule animale modifiée doit être celle dun embryon précoce capable, une fois introduite dans un embryon précoce hôte, de participer au développement de lorganisme jusquà transmettre la mutation à la descendance. Cette méthode laborieuse est utilisée depuis plus de 10 ans mais, pour des raisons techniques, chez la souris seulement. Le remplacement de gène par recombinaison homologue a donc pendant une décennie été réservée à cette seule espèce.

Une autre approche très séduisante peut en principe reposer sur la technique de clonage des animaux. Cette technique mise au point il y a environ quinze ans consiste à reconstituer léquivalent dun embryon en introduisant le double stock de chromosomes dune cellule dans un ovocyte préalablement énucléé. Ceci na pendant longtemps été possible quen partant de cellules embryonnaires non différenciées (totipotentes) et non cultivées. Des améliorations techniques relativement minimes ont permis dobtenir des clones de moutons en partant de cellules embryonnaires totipotentes cultivées (un an avant la naissance de Dolly) puis à partir de cellules fStales différenciées et enfin de cellules adultes. Ces expériences ont été menées essentiellement pour tenter de simplifier la technique de transgenèse. Il est en effet en principe possible de transférer des gènes étrangers dans des cellules cultivées utilisées ensuite pour engendrer des animaux qui se trouvent être transgéniques. Laddition de gène a ainsi été couronnée de succès (naissance de Polly) un an après la naissance de Dolly. En 1999, le remplacement de gène chez les moutons a pu être obtenu par recombinaison homologue par le même procédé.

Laddition de gène est ainsi simplifiée et le remplacement de gène est devenu possible chez les ruminants domestiques et très vraisemblablement chez dautres espèces dans le futur.

Les fragments dADN qui sont utilisés pour la transgenèse sont généralement construits au laboratoire pour diriger lexpression du gène étranger spécifiquement dans un tissu donné. La connaissance limitée que lon a actuellement du mode de fonctionnement des gènes ne permet encore quune approche empirique raisonnée dans la construction des futurs transgènes. Des progrès rapides récents dans ce domaine laisse prévoir pour un avenir assez proche un contrôle satisfaisant du fonctionnement des transgènes dans la majorité des cas.

3/ Les applications de la transgénèse

La transgenèse, a dès ses débuts chez les animaux en 1981 puis en 1983 chez les plantes, été définie avant tout comme un outil de recherche. Laddition ou le retrait dune information génétique dans un organisme entier est en effet un moyen incontournable pour déterminer les mécanismes moléculaires qui contrôlent le fonctionnement des gènes et le rôle des gènes eux-mêmes dans lexpression des fonctions biologiques. Lidentification systématique et massive des gènes de certains organismes par le séquençage complet de leur ADN va logiquement être suivie dune utilisation plus intense de la transgenèse chez quelques organismes modèles comme la souris et le tabac.

La maîtrise du vivant que représente la transgenèse a rendu possible des applications nouvelles dans le domaine médical et agronomique. Létude des maladies humaines ne peut se passer de modèles animaux. Les modèles pertinents résultant de mutations spontanées sont rares. Dans le meilleur des cas, des modèles particulièrement précieux peuvent être obtenus par addition ou remplacement de gènes. Cest surtout la souris qui est sollicitée en raison de son faible coût dutilisation. Dautres espèces sont parfois nécessaires pour diverses raisons, cest le cas notamment du rat, du lapin, du porc et des primates non humains. Cette approche expérimentale est devenue récemment plus simple et potentiellement plus utile à la suite de lamélioration des techniques de transgenèse.

Les animaux et les plantes sont depuis des temps immémoriaux la source de substances dotées de propriétés pharmacologiques. Ces substances nont, par le passé, été que rarement des protéines. Jusquà une époque récente en effet, un nombre relativement petit de protéines était connu et seulement quelque unes dentre elles pouvaient être extraites pour être administrées à lhomme. Cétait le cas de linsuline de porc pour le traitement des diabétiques. Le génie génétique offre la possibilité de préparer virtuellement nimporte quelle protéine en abondance en transférant le gène correspondant dans des bactéries, des levures, des plantes ou des animaux. Linsuline et lhormone de croissance humaine proviennent désormais essentiellement de bactéries recombinées. Plusieurs dizaines de protéines dintérêt pharmaceutique ont été obtenues à partir du lait danimaux ou de plantes transgéniques. La première protéine extraite ainsi du lait doit être mise sur le marché en 2000. Beaucoup dautres suivront et on peut considérer quune nouvelle branche de lindustrie pharmaceutique est née.

La transgenèse peut jouer un rôle décisif dans le domaine des greffes dorganes. Plusieurs milliers de personnes meurent chaque année en France par manque de greffon humain. Limpossibilité quil y a et qui persistera sans doute longtemps de remédier à cette situation a fait resurgir une idée déjà ancienne. Certains organes ou cellules des animaux et notamment ceux du porc pourraient probablement être utilisés à la place de matériel humain. Les rejets extrêmement violents des organes animaux ont jusquà maintenant empêchés les xénogreffes de devenir une réalité. Des succès partiels mais bien réels ont été obtenus dans la dernière décennie du XXème siècle. Des cSurs et des reins de porcs transgéniques abritant des gènes capables dinhiber le système du complément humain responsable du rejet hyper-aigu des éléments étrangers ont pu être maintenus, intègres, pendant plusieurs semaines après avoir été greffés à des singes.

De multiples obstacles, y compris dans le domaine de la connaissance des mécanismes de rejet, restent à franchir pour que la xénogreffe devienne une réalité médicale. La xénogreffe peut toutefois dans lavenir concerner plus les cellules qui sont moins sujettes aux rejets que les organes. La démonstration récente que des cellules embryonnaires humaines peuvent être différenciées in vitro en cellules souches dorganes laisse penser que des cellules humaines préparées de cette manière pourraient être dans lavenir utilisées plutôt que leurs homologues dorigine porcine. La situation actuelle incite à imaginer que la xénogreffe ou la greffe à partir de cellules humaines différenciées pourraient être retenues comme moyen thérapeutique au cas par cas en fonction des problèmes à résoudre. Le transfert de gène dans les cellules ou via la transgenèse pourrait permettre aux cellules porcines non seulement dêtre mieux tolérées mais également dapporter des protéines ayant une activité thérapeutique. Une thérapie génétique serait alors réalisée en même temps quune thérapie cellulaire.

Les applications agronomiques de la transgénèse commencent à être significatives, en ce qui concerne les végétaux. Elles sont, pour des raisons techniques, tout juste naissantes chez les animaux. La transgenèse permet dans certains cas de conférer aux plantes et aux animaux une résistance contre les maladies. Ceci se traduit ou se traduira par une moindre utilisation de pesticides et dantibiotiques ainsi que par une simplification de la tâche des agriculteurs et des éleveurs. La résistance des animaux à des maladies devenue ainsi génétiquement transmissible a par ailleurs toutes les chances de réduire la souffrance des animaux, de permettre de consommer des viandes plus saines et diminuer la fréquence des zoonoses.

Certains projets de transgenèse nont dautre but que de réduire la pollution. Des porcs transgéniques expérimentaux rejettent ainsi deux fois moins de phosphate dans lenvironnement. Des plantes transgéniques ont été spécialement conçues pour capter certains ions métalliques toxiques présents spontanément dans le sol ou apportés à la suite dune activité industrielle.

Des plantes capables de se développer dans des sols salés ou alcalins impropres à lagriculture ont été obtenues par transgenèse. Ceci permet denvisager de conquérir de nouvelles terres.

La modification volontaire de la composition des plantes ou des animaux via la transgenèse peut permettre de fournir aux consommateurs des aliments plus riches en éléments essentiels voire plus sapides. Le riz doré capable dapporter un supplément de vitamine A aux 400 millions dêtres humains qui en manquent et sont menacés de devenir aveugles ainsi que de fer aux 4 milliards de personnes carencées est un exemple éloquent. Le transfert de plusieurs gènes a dû être réalisé pour atteindre ce but.

Diverses améliorations des produits animaux sont également envisagées. Elles concernent la composition du lait, des graisses, de la carcasse, de la laine, etc.

Il est intéressant de mentionner également que les végétaux qui sont déjà la source de molécules non destinées à l'alimentation humaine ou animale vont de plus en plus être sollicités pour servir comme base à la synthèse de plastiques biodégradables, de carburants, etc. La transgenèse peut dans certains cas apporter des solutions uniques ou originales et très satisfaisantes.

4/ Les problèmes posés par la transgenèse

La transgenèse est actuellement vue surtout par ses applications très marginales mais spectaculaires dans lalimentation humaine. Les OGM (organismes génétiquement modifiés) ont très mauvaise presse. Ce fait ne laisse de surprendre la majorité des biologistes qui considèrent que la transgenèse appliquée à lalimentation est à priori une des techniques puissantes les moins dangereuses que lhumanité ait inventées. Certes, un organisme transgénique est par définition en partie inconnu, mais cela est aussi le cas dun organisme obtenu par sélection classique ou dun aliment exotique. Les tests classiques de toxicité, oncogénicité et allergénicité accompagnés dune traçabilité raisonnable doivent pouvoir réduire les risques à un niveau bien inférieur à celui de beaucoup dautres techniques très généralement acceptées. Il est incontestable que certaines plantes, transgéniques ou non, posent des problèmes environnementaux dont limportance ne peut pas être aisément évaluée. Les modèles de laboratoire ne peuvent en effet que difficilement prendre en compte de manière satisfaisante des paramètres comme lespace et le temps. Les biotechnologistes ont quelque difficulté à imaginer comment leurs actions dans le domaine agronomique pourraient faire ne serait-ce que dix ou cent fois moins de victimes que lautomobile. Les réticences actuelles des consommateurs ne sont toutefois pas incompréhensibles. Toute nouveauté effraie. Les condamnations actuelles des OGM ressemblent à sy méprendre à celles appliquées aux vaccins il y a un siècle. Il est vrai quune désinformation qui a atteint un niveau peu commun ne fait quentretenir la confusion. Les critiques vis à vis des OGM sont en fait bien souvent dirigées plus contre la société libérale mal contrôlée que contre la technique elle-même. Les OGM en font actuellement les frais. Il est vrai que leur utilisation ne devrait pas tomber sous la coupe dentreprises qui détiennent des monopoles de fait. Lobtention du riz doré financée par lUnion Européenne et la fondation Rockefeller indique que la situation est bien plus ouverte et diverse que certains ne le prétendent. Les réticences des pays riches vis à vis des OGM ne sont pas partagées par ceux qui souffrent de pénuries alimentaires. Les chinois consomment ou utilisent actuellement au moins sept plantes transgéniques. Il ne semble pas que ces cultures se fassent sans contrôle. Les agriculteurs chinois sappuient en effet sur les résultats des expériences réalisées dans les pays développés et notamment les USA. Lavenir de lagriculture ne peut reposer sur un retour aux techniques anciennes, pas plus que la médecine traditionnelle ne saurait être un remède à certaines dérives des pratiques médicales modernes. Une application raisonnée des techniques agronomiques modernes, y compris de la transgenèse, paraît plus appropriée. En face de la demande croissante des consommateurs humains, le principe de précaution invite à mettre à notre disposition toutes les techniques de transgenèse pour optimiser les productions végétales et animales, quitte à ne pas les utiliser si des alternatives au cas par cas savèrent tout aussi efficace.

La transgenèse appliquée à lespèce humaine est en principe possible. Tout le monde ou presque saccorde pour considérer quune telle opération ne devrait comporter aucun risque technique et ne concerner que des activités thérapeutiques. La première condition nest pas actuellement remplie mais on peut imaginer que cela sera un jour le cas. Les thérapies géniques germinales ne peuvent raisonnablement concerner que le remplacement de gènes responsables de maladies humaines par leurs homologues non mutés. Ce type dopération est et restera probablement difficile et elles devront être accompagnées de contrôles stricts pour sassurer que la modification génétique induite est bien celle que lon attendait. Cette approche thérapeutique se trouverait en compétition directe avec le tri des embryons portant les gènes défectueux. Il y a tout lieu de penser que la deuxième solution paraîtra majoritairement comme la plus satisfaisante.

La modification du patrimoine génétique dun être humain non destinée strictement à remplacer un gène défectueux par un gène sain paraît difficilement envisageable sans risque. Laddition dun gène, conférant une résistance vis à vis dune maladie infectieuse, paraît séduisante à première vue. Nul ne peut prévoir tous les effets du transgène et ce qui est acceptable pour les animaux et les plantes ne lest plus pour l'espèce humaine. Il est concevable de procéder à des transgènes réversibles. Ceci ne paraît pas suffire à justifier lutilisation de cette technique pour l'espèce humaine.

Les générations qui nous suivront trouveront peut-être légitime et souhaitable de modifier le patrimoine génétique humain pour toute sorte de bonnes raisons. On pourrait en effet par exemple souhaiter que les êtres humains soient plus sereins et moins féroces envers leurs semblables ou plus modestement quils aient une vieillesse biologiquement plus douce. Il nest en rien certain que la transgenèse, dans le meilleur des cas, puisse apporter une solution à des problèmes aussi complexes. Quoiquil en soit, il serait sans doute prétentieux de condamner par avance les décisions de nos descendants. Il nous suffit, dans les faits, dêtre pleinement en accord avec nos convictions actuelles. Elles nous indiquent sans ambiguïté que la transgenèse ne doit pas âtre appliquée à lespèce humaine.

 

 DOCUMENT       canal-u.tv     LIEN  

(pour  consulter  la  vidéo, inscrire  le TITRE  dans  le  moteur  de  recherche  de  CANAL U )

le comportement anormal d'un matériau nanoporeux

il y a 9 mois

Paris, 6 avril 2016
Expirer en inspirant : le comportement anormal d'un matériau nanoporeux

Véritables éponges high-tech de l'infiniment petit, les matériaux nanoporeux permettent de capturer et libérer de manière contrôlée les composés chimiques, gaz ou liquides. Une équipe franco-allemande comprenant des chercheurs de l'Institut de recherche de Chimie Paris (CNRS/Chimie ParisTech) et de l'Institut Charles Gerhardt de Montpellier (CNRS/Université de Montpellier/ENSCM)1 a mis au point et décrit un de ces matériaux au comportement totalement contre-intuitif, le DUT-49. Lorsque la pression augmente pour faire entrer davantage de gaz dans un échantillon de DUT-49, celui-ci se contracte subitement et libère son contenu comme si, au cours d'une inspiration, les poumons se rétractaient et expulsaient l'air qu'ils contiennent. Publiés le 6 avril 2016 sur le site de la revue Nature, ces travaux permettent d'envisager des comportements innovants en science des matériaux.
La capture de molécules toxiques dans l'air ambiant, le stockage de l'hydrogène ou la libération ciblée de médicaments… Autant d'applications qui peuvent faire appel à des matériaux nanoporeux flexibles. Ces matériaux utilisent la grande surface déployée par leurs pores pour capter et stocker les molécules de gaz ou de liquide : c'est le phénomène d'adsorption2. Leurs pores peuvent ainsi adsorber des quantités impressionnantes de produits, s'agrandissant dans la limite de leur flexibilité.

Une équipe franco-allemande a conçu un nouveau type de matériau nanoporeux : le DUT-49. Formé par auto-assemblage d'un squelette carboné et d'atomes de cuivre, sa structure est à la fois organique et métallique. Il se présente sous la forme d'une poudre incroyablement poreuse : la superficie interne3 d'un seul gramme de ce matériau couvre 5000 m². Le DUT-49 est ainsi capable d'adsorber l'équivalent du tiers de son poids en méthane. Tout comme les autres matériaux « intelligents » de sa famille, ses propriétés changent selon les stimulations extérieures, comme la pression, la température ou la lumière. Si l'on augmente la pression lors de la capture d'un gaz, on augmente à la fois la quantité de gaz adsorbée et, dans le cas le plus courant, la taille des pores du matériau. La très grande flexibilité du DUT-49 provoque cependant un phénomène imprévu : alors que le matériau se remplit de gaz jusqu'à une certaine pression, il va se contracter brutalement et voir son volume diminuer de moitié si la pression continue d'augmenter.

Les chercheurs ont d'abord cru à une erreur d'instrumentation, car aucun autre des millions de matériaux connus qui adsorbent les gaz ne se comporte ainsi. Ce phénomène « d'adsorption négative » a pourtant bien été confirmé par des mesures complémentaires et l'équipe est parvenue à en décrire le mécanisme. Les molécules de gaz stockées dans les pores du DUT-49 établissent des interactions fortes avec la structure de ce solide ce qui, selon la quantité de gaz adsorbée, perturbe la disposition des atomes qui le composent et finit par provoquer sa contraction. Testé avec le butane et le méthane, ce comportement caractéristique du DUT-49 serait généralisable à d'autres composés gazeux.

DUT-49 rejoint les récentes découvertes de matériaux aux propriétés physiques « anormales », comme ceux à expansion thermique négative qui se contractent lorsqu'ils sont chauffés. Ce résultat ouvre un grand champ d'étude dans la compréhension des matériaux poreux flexibles et permet d'envisager des comportements innovants en science des matériaux. Il pourrait ainsi conduire à développer des interrupteurs et des capteurs à échelle nanométrique. Le dégonflement du matériau correspond en effet à une réponse forte à un petit évènement, déclenché à partir d'une valeur seuil facilement détectable.

 

 DOCUMENT         cnrs        LIEN 

Sans microbes, pas d'immunité efficace

il y a 9 mois

 Sans microbes, pas d'immunité efficace
Jean-Philippe Braly dans mensuel 468 
daté octobre 2012 -


Le système immunitaire d'un nouveau-né a besoin des microbes de l'environnement pour devenir performant. Cette hypothèse ancienne vient d'être récemment démontrée.
Dans le ventre de sa mère, baigné par le liquide amniotique, le foetus grandit dans un milieu stérile : sauf grave infection maternelle, il se trouve à l'abri des microbes. Mais à la naissance, il est brusquement confronté aux bactéries, virus ou champignons qui colonisent le vagin de sa mère, puis à tous ceux qui foisonnent dans l'environnement. Or, contrairement à celui d'un adulte, son système immunitaire a, à ce stade, encore du mal à les reconnaître spécifiquement, même s'il est moins immature qu'on l'a longtemps pensé (lire « Le foetus se défend mieux que prévu », p. 51).

On estime qu'il lui faut deux à trois années avant d'être fonctionnel. Comment apprend-il à réagir efficacement contre les intrus, tout en contrôlant cette agressivité afin qu'elle ne menace pas les cellules de l'organisme ? On le découvre aujourd'hui : une partie de la réponse se trouve dans tous les microbes qui colonisent l'enfant dès sa naissance - sa peau, sa bouche, ou encore et surtout son tube digestif. Ce n'est pas le moindre des paradoxes : les bactéries et autres microbes qui composent cette flore, en particulier la flore intestinale, sont indispensables à la mise en place d'un système immunitaire équilibré.

Double défi
L'hypothèse selon laquelle la flore microbienne - aujourd'hui appelée microbiote - jouerait un rôle dans la construction de l'immunité n'est pas nouvelle : elle a été évoquée dès 1907 par Elie Metchnikoff, un des fondateurs de l'immunologie à l'Institut Pasteur. Mais un siècle plus tard, l'explorer reste un défi. En effet, les investigateurs se heurtent à une double complexité : celle du système immunitaire, et celle du microbiote.

Très sophistiqué, le système immunitaire implique, chez les mammifères adultes, une multitude d'acteurs. En schématisant à l'extrême, on trouve en première ligne des cellules sentinelles (cellules dendritiques et macrophages) capables de détecter d'éventuels intrus (par exemple des bactéries). Elles les ingèrent, les digèrent, puis exhibent à leur surface des fragments protéiques caractéristiques de ces intrus. Ces fragments sont ensuite détectés par des cellules appelées lymphocytes T « effecteurs CD4+ ». Activés par ce contact, les lymphocytes T déclenchent alors différents mécanismes visant à éliminer les intrus (par exemple, certains lymphocytes T stimulent les lymphocytes B producteurs d'anticorps). Le tout se déroule sous le contrôle de multiples mécanismes régulateurs, qui impliquent notamment une catégorie particulière de lymphocytes T, les lymphocytes T régulateurs, capables d'inhiber les lymphocytes T effecteurs. De l'équilibre entre ces différentes populations de lymphocytes dépend en grande partie l'équilibre du système immunitaire tout entier (lire « Les lymphocytes T, des défenseurs bien entraînés », p. 46).

Souris sans microbes
Quant au microbiote, sa complexité tient à l'extrême diversité des micro-organismes qui le constituent. Rien qu'au niveau de notre tube digestif, pas moins de cent mille milliards de bactéries cohabitent, appartenant à plusieurs centaines d'espèces différentes, et dont la majeure partie n'est pas identifiée.

Fort heureusement, pour comprendre l'interaction entre microbiote et système immunitaire, les scientifiques disposent depuis plusieurs années d'un précieux outil d'investigation : des souris dépourvues de microbiote, car nées et élevées en milieu stérile. On parle de souris « axéniques ». Ces animaux ont permis de mettre en évidence combien la flore intestinale était indispensable à un développement harmonieux des nouveau-nés. En effet, les souriceaux axéniques présentent de nombreuses anomalies, en particulier au niveau du système immunitaire. Il suffit de regarder leurs organes lymphoïdes, c'est-à-dire les structures où les lymphocytes T et B se multiplient, pour s'en rendre compte : les plaques de Peyer, situées le long de l'intestin, restent immatures quand ces animaux grandissent, de même que la rate et les ganglions lymphoïdes. Cela s'accompagne, dans l'organisme, d'un déficit en lymphocytes matures. Aujourd'hui, on commence à discerner la façon dont le microbiote intervient dans la maturation du système immunitaire. Grâce, là encore, aux souris axéniques : en colonisant leur tube digestif avec un ensemble de bactéries, ou une bactérie en particulier, on peut étudier la façon dont ces microbes influencent les acteurs du système immunitaire.

Certaines équipes ont choisi d'utiliser, comme souris axéniques, des animaux « modèles » de telle ou telle maladie auto-immune, maladies où le système immunitaire attaque les cellules de l'organisme. En 2008, une étude pilotée par Alexander Chervonsky, de l'université de Chicago, a marqué les esprits. Son équipe et lui étudient la genèse du diabète de type 1, où le système immunitaire s'attaque aux cellules du pancréas sécrétrices d'insuline. Il s'agit d'une maladie multifactorielle, avec en particulier des déterminants génétiques. Mais les résultats des biologistes de Chicago suggèrent qu'elle dépend aussi, en partie, de la flore intestinale [1].

Influence bénéfique
Alexander Chervonsky et ses collaborateurs ont travaillé avec des souris dites « NOD », qui développent spontanément un diabète de type 1 à l'âge adulte. Ils les ont comparées à des souris NOD mutées de sorte que leur capacité à développer une flore intestinale normale en présence de bactéries soit perturbée. Tant les souris NOD que les souris NOD mutées étaient axéniques, car élevées en conditions stériles. Il s'agissait de voir si, une fois sorties de ce milieu stérile et colonisées par des bactéries, les souris NOD mutées développaient un diabète comme les souris NOD non mutées. Et si oui, de comparer leur flore respective.

Résultat : les souris NOD mutées ne sont pas devenues diabétiques, contrairement aux souris NOD non mutées. Pourquoi ? « Certaines espèces bactériennes - des lactobacilles notamment - se sont davantage développées chez les souris NOD mutées que chez les autres, indique Gérard Eberl, chercheur à l'Institut Pasteur. Leur rôle exact reste à définir, mais on pense que certaines bactéries intestinales accentueraient des mécanismes régulateurs du système immunitaire, l'empêchant ainsi de s'attaquer aux cellules du soi », complète-t-il.

Quels mécanismes exactement ? Pour l'instant, on l'ignore. En revanche, d'autres études ont montré que certaines bactéries jouaient un rôle particulièrement important dans les proportions entre les différents types de lymphocytes T.

L'un des exemples les plus marquants à ce jour concerne la bactérie Bacteroides fragilis. En 2005, Sarkis Mazmanian, Dennis Kasper et leurs collaborateurs de l'école de médecine de Harvard, ont montré que cette espèce bactérienne corrige, à elle seule, certaines anomalies sévères observées chez les souris axéniques [2]. En particulier, la rate des souris colonisées par Bacteroides fragilis se développe normalement, alors qu'elle reste immature chez les animaux axéniques. Et le déficit en lymphocytes T effecteurs CD4+ dont souffrent ces animaux est corrigé, atteignant un niveau normal. Plus précisément, Sarkis Mazmanian et Dennis Kasper ont montré que la colonisation par Bacteroides fragilis rétablissait la balance entre deux sous-types de ces lymphocytes, les Th1 et Th2 (ces derniers étant proportionnellement plus nombreux chez les souris axéniques). Les biologistes de Harvard ont même réussi à déterminer d'où la bactérie tirait ses propriétés : « D'une molécule qu'elle produit, le polysaccharide A, ou PSA », explique Sarkis Mazmanian. Purifié puis administré à des souris axéniques, le PSA reproduit à lui seul l'ensemble des effets dus à la colonisation par Bacteroides fragilis.

Mais Bacteroides fragilis n'est pas la seule bactérie à influencer la balance lymphocytaire. En 2009, une équipe européenne pilotée par Nadine Cerf-Bensussan, de l'Inserm, a mis en évidence le rôle d'une bactérie filamenteuse nommée SFB [3]. Les biologistes ont observé que la colonisation de souris axéniques avec une flore intestinale normale déclenchait l'expression de nombreux gènes, caractéristique d'une réponse immunitaire de l'organisme. Ils ont ensuite essayé de reproduire le phénomène en administrant à des souris axéniques soit des bactéries bien identifiées, soit des mélanges bactériens plus ou moins complexes. C'est là qu'ils ont découvert le rôle étonnant de la bactérie SFB. « La colonisation de l'intestin par SFB active des cellules immunitaires, en particulier des lymphocytes T effecteurs, indique Nadine Cerf-Bensussan. Ils se différencient et migrent le long de l'intestin, où ils assurent une fonction protectrice. »

Cellules régulatrices
Quant aux lymphocytes T régulateurs, à l'action anti-inflammatoire, ils semblent eux aussi bénéficier de la présence de certaines bactéries. Sarkis Mazmanian a montré, en 2010, que Bacteroides fragilis induit leur prolifération dans la muqueuse du côlon [4] [fig. 1]. Et en 2011, une équipe japonaise a révélé qu'un cocktail de bactéries du genre Clostridium exerçait un effet semblable [5].

L'équilibre entre toutes les catégories de lymphocytes T semble donc bien être sous influence du microbiote, du moins chez la souris. Reste une question clé : qu'en est-il chez l'homme ? Tester des hypothèses est bien évidemment beaucoup plus compliqué qu'avec des souris axéniques. D'autant que chaque espèce de mammifères a sélectionné, au fil de l'évolution, un microbiote qui lui est propre. Venant appuyer des résultats préliminaires obtenus par l'équipe de Nadine Cerf-Bensussan, une récente étude pilotée par Dennis Kasper a prouvé qu'une flore humaine échouait à restaurer un système immunitaire normal chez des souris axéniques [6].

Mais certains indices militent néanmoins en faveur d'une implication tout aussi importante des microbes au sein de nos propres organismes. En particulier, depuis les années 1990, des études épidémiologiques montrent un développement plus important des allergies et de certaines pathologies auto-immunes dans les pays développés, en parallèle avec une hygiène de plus en plus stricte - et donc une moindre confrontation des jeunes enfants aux microbes. Plus récemment, des travaux comparant une cohorte d'enfants burkinabés avec des enfants italiens ont montré que la flore bactérienne intestinale est moins diversifiée chez ces derniers [7]. « Tout cela renforce la théorie hygiéniste selon laquelle les dysfonctionnements du système immunitaire à l'origine de certaines pathologies auto-immunes seraient favorisés par la flore trop peu diversifiée des enfants occidentaux », explique Gérard Eberl. Cela perturberait la maturation du système immunitaire, et en particulier la mise en place de sa composante régulatrice.

 

 DOCUMENT     larecherche.fr       LIEN

Le système immunitaire

il y a 9 mois

Le système immunitaire
Laure Schalchli dans mensuel 301 


Des millions d'anticorps et un grand principe : pour reconnaître l'étranger, encore faut-il se connaître soi-même
La masse du système immunitaire est comparable à celle du foie ou du cerveau. Mais il est éparpillé dans tout l'organisme. En font partie les globules blancs circulant dans le sang, dans la lymphe et imprégnant les tissus. Les principales cellules de l'immunité sont les lymphocytes, qui sont les globules blancs majoritaires dans le sang. Un homme adulte en contiendrait quelque deux mille milliards. Mais il existe beaucoup d'autres cellules impliquées dans l'immunité : globules blancs polynucléaires, monocytes ou macrophages, mastocytes, cellules dendritiques.

Le système immunitaire c'est aussi une série d'organes et de tissus dits lymphoïdes : les ganglions, la moelle des os, la rate, les amygdales, les végétations, l'appendice et des tissus associés au tube digestif et aux poumons en font partie. S'y ajoute le thymus, un organe situé dans le thorax derrière le sternum, qui grossit jusqu'à la puberté puis s'atrophie à l'âge adulte.

Toutes les cellules impliquées dans l'immunité prennent naissance dans la moelle des os. Certains lymphocytes se différencient dans le thymus. Puis ils migrent dans le sang et la lymphe et séjournent temporairement dans la rate, les ganglions, en se concentrant à proximité de la peau et des muqueuses, partout où le risque de pénétration d'intrus est grand. En permanence, le système immunitaire assure l'intégrité de l'organisme face aux substances étrangères, aux bactéries, aux virus, aux parasites.

Quand a-t-il été découvert ?
Le 14 mai 1796, un médecin de Berkeley, Edward Jenner, fait une expérience capitale. Il prend au mot une croyance populaire, selon laquelle une maladie de la vache cowpox , maintenant appelée vaccine peut rendre l'homme réfractaire à la variole. Il introduit du pus d'une femme atteinte de la maladie bovine dans le bras du jeune James Phipps, un enfant de 8 ans en parfaite santé. Six semaines plus tard, il injecte au garçon du pus d'un malade atteint de variole. James Phipps reste en bonne santé. La vaccination est née.

Un peu plus de quatre-vingts ans plus tard, Louis Pasteur fournit un début d'explication au succès de Jenner. En injectant à des poules de vieilles souches atténuées de bacilles du choléra, Pasteur et Emile Roux les protègent d'une infection ultérieure par le même microbe, mais pas par d'autres germes. Pasteur répète l'expérience, entre autres, avec des bacilles du charbon inactivés par la chaleur. On trouve ici les propriétés essentielles des réactions immunitaires : la vaccination ne protège que contre l'agent vaccinant spécificité, la protection est complète efficacité, le vaccin protège pendant des années, voire toute la vie mémoire.

Peu après, le zoologiste et microbiologiste russe Ilya Mechnikov propose sa théorie « cellulaire » de l'immunité, qui fait intervenir des cellules spécialisées. Pour la première fois, il suggère que l'inflammation n'est pas une composante nocive de la maladie, mais une réaction de l'organisme qui tend à protéger le malade. C'est au tournant du siècle que la réaction immunitaire est rattachée à l'apparition dans le sang de protéines spécifiques, les anticorps. En 1890, l'Allemand Emil von Berhing et le Japonais Shibasaburo Kitasato isolent les premiers d'entre eux, des substances solubles capables de neutraliser les toxines diphtérique et tétanique.

Qu'est-ce qu'un anticorps ? Comment est-il fabriqué ?
Le nom d'abord, anticorps, vient de ce que cette substance reconnaît le corps étranger et s'y fixe. On ne parle pas d'anticorps sans parler de son partenaire obligé, l'antigène, nommé ainsi parce que c'est justement... le « générateur » d'anticorps. L'antigène est le composé qui, quand on l'introduit dans l'organisme, provoque la formation d'anticorps spécifiques dirigés contre lui. La définition se mord la queue.

Les anticorps sont des protéines solubles présentes dans le sang. On les appelle également immunoglobulines. Elles sont fabriquées par un type particulier de globules blancs, les lymphocytes B. Le sang humain en contient une quantité énorme : un litre recèle environ soixante-dix grammes de protéines, dont dix à vingt grammes d'immunoglobulines.

Un casse-tête a dès le départ préoccupé les immunologistes. Un anticorps reconnaît de façon extrêmement fine et spécifique un antigène. Or il existe, dans la nature, un nombre indéfini d'antigènes. Le système immunitaire peut donc produire des anticorps contre n'importe quoi, y compris des substances créées par l'industrie chimique du XXe siècle.

Pour l'expliquer, on a d'abord pensé que les anticorps s'adaptent à l'antigène injecté, qu'ils « apprennent » sa forme en s'y modelant. Ce modèle, dit instructionniste, a été défendu jusqu'à la fin des années 1950. Il a été détrôné par celui de la « sélection » des anticorps : une diversité énorme d'anticorps existe bel et bien dans l'organisme. L'arrivée d'un antigène sélectionne ceux qui le reconnaissent et s'y fixent. Un processus somme toute très darwinien. Le modèle de la sélection supposait cependant de résoudre un problème de taille : la fabrication de millions d'anticorps différents, bien plus que le nombre total de gènes disponibles dans les chromosomes.

Deux phénomènes génétiques exceptionnels, qui ont lieu dans les lymphocytes, assurent une telle diversité. Ils ont été découverts pendant les années 1970. Le premier est un « remaniement » du génome. Chaque anticorps est codé par un gène unique, construit à partir de plusieurs pièces détachées : au moins trois tronçons génétiques différents, choisis parmi plus d'une centaine, sont coupés et placés bout à bout. De plus, l'assemblage des tronçons est assez imprécis. Ce jeu de combinaisons permet de produire une diversité considérable d'anticorps, libérés par autant de lymphocytes différents. Des chiffres ont été avancés, très divers eux aussi : un million, dix milliards...

Le second processus laisse encore les généticiens perplexes. Certaines portions des gènes codant les anticorps mutent à une vitesse impensable dans le reste du génome. Le taux de mutation peut y être jusqu'à dix millions de fois plus élevé. Ce mécanisme, qui entraîne une augmentation extrême de la diversité, touche les anticorps déjà sélectionnés par l'antigène. Il a lieu dans les lymphocytes activés, en réponse à l'antigène, et se solde par la production et la sélection d'anticorps encore plus « performants ».

Notons enfin que contrairement à une simplification abusive, chaque antigène est reconnu par de nombreux anticorps différents. Et vice versa : un même anticorps reconnaît plusieurs antigènes. Les immunologistes parlent de dégénerescence de la reconnaissance.

Pourquoi rejette-t-on les greffes ?
Parce que l'organe greffé contient des composants, plus exactement des protéines, qui n'existent pas dans le corps du receveur. Le système immunitaire détecte ces protéines étrangères et détruit les tissus qui les portent.

Ces protéines spéciales sont appelées « molécules d'histocompatibilité » du grec histos , tissu. Elles ont des propriétés étonnantes. Normalement, à l'intérieur d'une espèce, donc chez l'homme, les protéines varient peu d'une personne à l'autre, sauf anomalie génétique. Dans le cas des molécules d'histocompatibilité, pour une seule protéine - c'est-à-dire pour un seul gène - on peut trouver plus de cent versions différentes dans la population. Comme ces protéines sont de surcroît assez nombreuses quelques dizaines, deux individus pris au hasard ont très peu de chances de porter les mêmes. Les protéines d'histocompatibilité sont ainsi de très bons marqueurs du « soi » biologique. Dernière particularité, toutes les cellules de l'organisme exhibent ces protéines à leur surface. A quelques exceptions près : les spermatozoïdes en sont dépourvus ; les globules rouges aussi, ce qui facilite les transfusions...

Ces protéines sont codées par un groupe de gènes, le « complexe majeur d'histocompatibilité » CMH. Qui est effectivement fort complexe et très étudié par les immunologistes et les généticiens. Il contient au moins une cinquantaine de gènes différents, mais seulement certains dits de classe I et II interviennent dans la reconnaissance du soi. Chez l'homme, on appelle souvent ces protéines HLA human-leucocyte-associated antigens , parce qu'elles ont été découvertes par hasard sur les globules blancs les leucocytes. On les distingue par des lettres : HLA A, B, C, E, F, G, DP, DQ, DR... Deux vrais jumeaux ont exactement les mêmes HLA. Deux frères et soeurs ont moins d'une chance sur seize d'hériter d'un lot identique. Connaissant la répartition des différentes formes de HLA dans la population, on estime que cette probabilité tombe à un sur 40 000 pour deux personnes prises au hasard.

D'autres protéines jouent un rôle mineur dans le rejet des greffes. Elles sont très variées et la liste est loin d'être close. L'une d'entre elles, « HY », est présente uniquement chez les hommes, car elle est codée par un gène situé sur le chromosome Y. Résultat : une femme rejette le rein ou le coeur d'un homme, même s'ils ont les mêmes HLA.

Comment le système immunitaire détecte-t-il les intrus ?
Dans les années 1970 a été faite une découverte étonnante : le système immunitaire n'est pas capable d'identifier les composés étrangers tels quels. Il ne reconnaît le « non-soi » que s'il est associé aux marqueurs du « soi » : les antigènes ne sont vus que s'ils sont portés, présentés par les protéines d'histocompatibilité. Tout est affaire de coopération entre cellules.

Très schématiquement, la reconnaissance de la plupart des bactéries qui pénètrent dans l'organisme se déroule de la façon suivante. En permanence, des sentinelles abondantes dans la peau, les muqueuses et les ganglions, les cellules dendritiques et les macrophages, captent les intrus et les ingèrent. Les antigènes bactériens sont digérés, fragmentés, puis exhibés à la surface de ces cellules. Ils n'y sont jamais exposés seuls, mais nichés au sein des protéines d'histocompatibilité. C'est sous cette forme que le système immunitaire les reconnaît. La reconnaissance est assurée par les lymphocytes : tous portent à leur surface des molécules semblables aux anticorps, mais ancrées sur la cellule. Ceux qui fixent spécifiquement l'antigène intrus sont sélectionnés et se multiplient. Entrent d'abord en jeu les lymphocytes T, baptisés ainsi parce que leur maturation se fait dans le thymus, puis les lymphocytes B, qui produisent les anticorps.

Autre cas possible : l'organisme est envahi par des virus. C'est la cellule infectée qui présente directement aux lymphocytes des fragments du virus, lovés dans les protéines du soi.

Lorsqu'un antigène a été reconnu une première fois, le système immunitaire s'en souvient. La mémoire repose sur des cellules à durée de vie extrêmement longue : elles - ou leurs descendantes - restent dans la rate, dans les ganglions, pendant des mois ou des années, prêtes à se réveiller si l'antigène réapparaît. En revanche, la très grande majorité des lymphocytes ne vivent que quelques jours : après avoir été activés et s'être multipliés à très grande allure pendant la réponse immunitaire, ils meurent en masse, se suicidant en réponse à des signaux externes. On ignore complètement ce qui permet à certains d'échapper à l'hécatombe.

Comment les détruit-il ?
L'organismerépond généralement à l'invasion de bactéries ou de virus par de la fièvre, puis par une réaction inflammatoire : le lieu de l'infection devient rouge, douloureux, gonflé. Les tissus infectés libèrent des substances chimiques qui dilatent les vaisseaux, provoquent un afflux de sang, attirent les globules blancs. Ces derniers affluent et détruisent les bactéries ou les cellules infectées. Si l'on entre dans les détails de la réponse immunitaire, l'affaire se complique très vite. Entrent en jeu une panoplie de cellules qui communiquent soit par contact physique, soit en libérant dans leur voisinage des signaux chimiques.

Les anticorps neutralisent les bactéries ou leurs toxines en les agglutinant et en activant contre elles des enzymes sanguines, regroupées sous le nom de système du complément. Mais ce n'est que l'une des armes du système immunitaire. L'entrée de bactéries provoque un recrutement en cascade. Les lymphocytes T « auxiliaires » ou CD4 activent les lymphocytes B, qui se multiplient et sécrètent les anticorps. Un seul lymphocyte peut en produire plus de dix millions par heure. D'autres cellules, les polynucléaires et les macrophages, ingèrent et tuent les microbes. La lutte contre les virus ou contre certaines bactéries se développant à l'intérieur des cellules fait intervenir d'autres acteurs, les lymphocytes T tueurs ou CD8. Ces derniers reconnaissent directement les cellules infectées et les tuent en y déclenchant un programme interne de suicide.

D'où viennent les maladies auto-immunes ?
La question est loin d'être vraiment résolue. Dans ces maladies, le système immunitaire s'attaque aux propres éléments de l'organisme : les cellules du pancréas dans certains diabètes, la gaine des neurones dans la sclérose en plaques, les globules rouges dans certaines anémies... L'élément déclenchant reste assez mystérieux. Un point est sûr : nous produisons tous des anticorps et des lymphocytes dirigés vers les constituants du corps humain. Certains pensent même que c'est indispensable à l'équilibre du système immunitaire. Mais en temps normal, ces lymphocytes sont inactifs.

Très tôt, durant la vie embryonnaire, le système immunitaire apprend à devenir tolérant vis-à-vis de ses propres constituants. Dans le thymus de l'embryon, beaucoup de lymphocytes dirigés contre les constituants du corps sont éliminés. D'autres sont simplement « muselés », empêchés d'agir on parle d'anergie des lymphocytes. L'hypothèse actuelle est que pour entrer en jeu un lymphocyte a besoin de recevoir au moins deux signaux. D'une part, il lui faut reconnaître l'antigène, présenté par une cellule adéquate. D'autre part, il doit recevoir en même temps un signal délivré par la cellule présentatrice, par contact direct ou sous forme d'une substance soluble. Dans l'embryon, ce second signal ferait défaut, ce qui entraînerait la mort ou l'anergie de tous les lymphocytes reconnaissant les constituants du corps.

Cette « éducation » du système immunitaire se poursuit à l'âge adulte. L'organisme fabrique en permanence des lymphocytes dirigés contre ses propres constituants. C'est la présence ou l'absence du second signal - qui reflète peut-être le danger associé à l'antigène - qui aiguillerait le système vers la tolérance ou vers la réaction immunitaire. Certaines maladies auto-immunes ont été associées à des HLA particuliers. La présentation de l'antigène par telle ou telle molécule d'histocompatibilité pourrait favoriser l'activation des lymphocytes dirigés contre les constituants du corps. Une autre piste est qu'une infection virale peut modifier la présentation des antigènes du soi et induire certains lymphocytes à y réagir.

Pourquoi un corps étranger comme le foetus est-il toléré par la mère ?
C'est ce qu'on appelle le « privilège immunitaire », qui profite d'ailleurs aussi aux cellules cancéreuses. Il n'existe pas d'explication unique à ce phénomène.

Pour le foetus, le scénario suivant est avancé. Lorsque l'oeuf se niche dans l'utérus, ses enveloppes ne portent pas les protéines d'histocompatibilité HLA classiques ; il échappe ainsi au rejet de greffe. Cependant, les cellules sans HLA sont normalement détruites par une catégorie spéciale de cellules immunitaires, les cellules tueuses naturelles, qui reconnaissent l'absence du soi. Et l'utérus en regorge. L'embryon échapperait à la destruction car ses enveloppes portent un autre type de protéines HLA, appelées HLA-G, qui agissent comme des immunosuppresseurs.

Quant aux cellules cancéreuses, elles produisent des antigènes anormaux qui devraient également entraîner leur destruction par le système immunitaire. Peut-être y échappent-elles par le mécanisme décrit ci-dessus. Leur furtivité pourrait aussi être liée au fait que ce ne sont pas de bonnes « présentatrices » d'antigènes : elles ne délivreraient pas le second signal adéquat. Autre hypothèse : les cellules cancéreuses libèrent des signaux captés par les cellules immunitaires, les poussant à un suicide anticipé ou rendant leur réponse inefficace. Ces hypothèses ne sont pas exclusives : l'homme évolue avec ses tumeurs depuis des millions d'années, aux cours desquelles a dû s'instaurer un dialogue complexe entre ces dernières et le système immunitaire.

D'où viennent les allergies ?
Ce sont des réactions immunitaires exacerbées - et surtout mal aiguillées. Leur nom fait référence à cette réponse particulière du grec allos , autre, et ergon , travail. La rougeur, l'oedème, les démangeaisons sont dus à la libération dans la peau, dans les muqueuses du nez, dans les bronches, de grandes quantités de substances chimiques responsables de l'inflammation, en particulier de l'histamine. Ces substances font partie intégrante d'une réponse immunitaire normale, mais la machine s'est emballée.

Même si seulement 10 à 20 % des personnes s'en plaignent, tout le monde est plus ou moins allergique. C'est une question d'équilibre dans la réponse immunitaire. Un antigène peut, une fois qu'il a été reconnu par les lymphocytes T auxiliaires, donner lieu à deux réponses différentes. Schématiquement, la première voie recrute les lymphocytes tueurs et permet le rejet des greffes ou la lutte antivirale. La seconde, mise en jeu dans la lutte contre les parasites et beaucoup de bactéries, favorise la formation d'anticorps. Ces voies ont été baptisées TH1 et TH2 pour T helper 1 et 2, parce qu'elles sont mises en route par deux types de lymphocytes auxiliaires, qui émettent des signaux différents. Dans l'allergie, la balance penche vers TH2, et en particulier vers la production d'un type d'anticorps appelé IgE pour immuno- globuline E. Ces anticorps stimulent la libération explosive de l'histamine et d'autres signaux par des cellules spécialisées, les mastocytes.

Certains antigènes - comme ceux des pollens des graminées, qui donnent le rhume des foins - sont plus propices à la production d'IgE. Mais l'allergie est aussi une question de prédisposition génétique : certaines personnes sont plus disposées à répondre par l'une ou l'autre des deux voies immunitaires.

Les éponges, les oiseaux, les végétaux ont-ils un système immunitaire ?
Tout dépend de ce qu'on appelle immunité. Les éponges ou les colonies de coraux sont capables de rejeter un élément étranger. Il s'agit d'un système de reconnaissance du non-soi, mais qui n'a rien à voir avec l'immunité assurée par les lymphocytes. De même, les plantes, les insectes peuvent réagir à un agresseur en relarguant des substances toxiques antibiotiques, protéines. Mais il n'y a pas de reconnaissance précise de l'antigène.

Ce type d'immunité non spécifique, sans mémoire, a bizarrement été qualifiée de « naturelle » ou d'« innée ». Elle correspond, chez l'homme, à l'action des cellules tueuses naturelles, des macrophages ou du complément.

Des molécules, dont la structure est proche de celle des anticorps, ont été retrouvées chez les vers nématodes ou les insectes. Mais cela n'implique pas une parenté de fonction. L'immunité spécifique ou « adaptative » apparaît chez les vertébrés. Presque tous ont un système immunitaire avec des anticorps. A une exception près : on n'en a pas retrouvé chez les vertébrés les plus primitifs, les poissons sans mâchoires ou agnathes, comme la lamproie. Les poissons, les batraciens, les reptiles, les oiseaux ont un thymus. La coopération entre lymphocytes, qui permet la maturation de la réponse immunitaire, atteint son efficacité maximale chez les mammifères.

 

   DOCUMENT       larecherche.fr       LIEN

Les échanges hippocampe-cortex pendant le sommeil consolident la mémoire

il y a 10 mois

Les échanges hippocampe-cortex pendant le sommeil consolident la mémoire
Marc GozlanPar Marc Gozlan
Voir tous ses articles
Publié le 23-05-2016 à 17h38
Mis à jour le 24-05-2016 à 08h42

Des chercheurs français apportent pour la première fois la preuve que la mémorisation à long terme des souvenirs implique un échange pendant le sommeil entre ces deux zones du cerveau.
 

 

MÉMOIRE. Depuis les années 1950, on considère que les souvenirs sont initialement formés dans l’hippocampe et migrent progressivement dans le cortex pour y être stockés sur le long terme. Bien qu’étayée par de nombreux travaux expérimentaux, cette hypothèse n’a jamais encore été directement validée. Des chercheurs du CNRS, de l’Inserm et du Collègue de France viennent de rapporter dans la revue Nature Neurosciences des résultats obtenus chez le rat qui montrent un lien causal entre un dialogue hippocampe-cortex au cours du sommeil et la mémorisation à long terme, en l’occurrence le fait de se souvenir de l’emplacement d’un objet par ce rongeur.

Les chercheurs ont manipulé la coordination dans le temps entre hippocampe et cortex après que des rats aient été entraîné à une tâche de mémoire spécialement destinée à déclencher un encodage d’une tâche mnésique, mais pas suffisante pour provoquer sa consolidation à long terme. Les chercheurs ont entraîné ces rongeurs à mémoriser les positions de deux objets identiques dans une pièce. Le lendemain, alors qu’un objet avait été déplacé, les rats devaient déterminer lequel des deux avait bougé.

Les rats réussissaient le test lorsqu’ils passaient 20 minutes sur place le premier jour, mais ils échouaient s’ils n’étaient restés que 3 minutes. Cette différence se reflétait également dans les couplages entre hippocampe et cortex pendant le sommeil juste après la première exploration. En effet, ce dialogue entre ces deux structures est plus important chez les rats qui réussissaient le test le lendemain.

Afin de prouver que ces couplages étaient bien la cause de la mémorisation, les chercheurs ont utilisé un dispositif destiné à produire à volonté des couplages entre l’hippocampe et cortex. Il permettait de détecter en temps réel les ondulations de l’hippocampe et de déclencher aussitôt des ondes delta issues du cortex et des fuseaux de sommeil dans le cortex. Les « fuseaux de sommeil » (ou spindles) correspondent à de petites bouffées de rythmes rapides observables à l’électroencéphalogramme lors du sommeil lent.

Une stimulation électrique aux effets étonnants

Résultat : l’utilisation de ce dispositif chez des rats entraînés pendant seulement 3 minutes le premier jour, et qui n’étaient donc pas censés se souvenir de l’emplacement des objets le lendemain, a permis à ce que les réussissent parfaitement le test. Lorsque la stimulation intervenait en revanche après un délai variable entre l’activité dans l’hippocampe et celle du cortex, l’effet disparaissait. Au total, il s’avère que le renforcement, par l’intermédiaire d’une stimulation électrique, de la coordination naturelle entre les ondes hippocampiques, les ondes corticales et les « fuseaux de sommeil » entraîne une réorganisation de réseaux neuronaux du cortex préfrontal, qui se traduit par une meilleure réponse des rongeurs à une tâche de mémoire le lendemain.

Reste à démontrer que ces résultats, éclairant sur les mécanismes de la mémorisation à long terme chez l’animal, puissent être confirmés chez l’homme. Et l’on imagine déjà les tenants de la "neuroaugmentation" (encore appelée "dopage cérébral", "optimisation cérébrale" ou encore "neuro-optimisation"), nous expliquer qu’il sera bientôt possible d’agir sélectivement sur les souvenirs que l’on souhaite renforcer. C’est un peu vite oublier (!) que cette expérience ne concernait qu’un seul souvenir correspondant à une tâche exécutée… la veille chez un rat.

SÉMANTIQUE

il y a 10 mois

SÉMANTIQUE

Étude du sens des unités linguistiques et de leurs combinaisons.


LINGUISTIQUE
L'avènement d'une discipline ayant le sens pour objet (la sémantique) a été relativement tardif (le terme a été créé par M. Bréal en 1897). Considérant, à la suite de Saussure, que la langue devait être décrite « en elle-même et pour elle-même », c'est-à-dire avant tout comme une forme, les linguistes structuralistes ont établi une distinction rigoureuse entre forme et sens, ce qui laisse la possibilité de dégager un niveau d'analyse autonome : le niveau sémantique.
La sémantique structurale se fonde sur le concept saussurien de valeur, selon lequel la « signification » d'un signe ne se limite pas à la relation entre un signifiant et un signifié mais doit être également conçue comme résultant de la relation de ce signe avec d'autres signes : l'anglais sheep et le français mouton peuvent avoir la même signification mais ils n'ont pas la même valeur, puisque l'anglais comporte, en outre, mutton (viande de l'animal) ; d'où le projet de constituer des « champs sémantiques » de termes, puis des « microsystèmes » dont les sens se délimitent réciproquement. Dès lors, les comparaisons entre signes permettent de dégager des unités minimales de signification (les sèmes ou traits sémantiques) par des procédures analogues à celles utilisées en phonologie.
La sémantique distributionnelle prend pour base que le sens des unités linguistiques est en relation étroite avec leur distribution, c'est-à-dire avec la somme des environnements dans lesquels elles apparaissent : on pourra ainsi classer les divers sens d'un terme en fonction des constructions auxquelles il participe : l'adjectif fort, par exemple, appliqué à une personne, change de sens lorsqu'il est suivi d'un complément prépositionnel (un homme fort / fort aux échecs / fort en sciences).
La sémantique générative, prolongeant et critiquant la grammaire générative, part de la constatation que deux phrases de même sens peuvent avoir des structures profondes différentes. Il faut donc envisager les structures profondes non plus au niveau syntaxique mais au niveau sémantique. Cette structure sémantique profonde, très abstraite, est constituée d'un ensemble de traits logiques dont la combinaison aboutit aux structures de surface.
Ainsi, la sémantique, qui était à l'origine une analyse du sens au niveau du mot, se situe désormais au niveau de la phrase, voire du discours (pragmatique).

En savoir plus sur http://www.larousse.fr/encyclopedie/divers/s%C3%A9mantique/91079#MObVvOfDT6ThfBcW.99

 

 DOCUMENT      larousse.fr     LIEN

LES LUNES DE MARS

il y a 10 mois

Paris, 4 juillet 2016
Un impact géant : le mystère de l'origine des lunes de Mars enfin percé

 

D'où viennent Phobos et Deimos, les deux petits satellites naturels de Mars ? Longtemps, leur forme a fait croire qu'ils étaient des astéroïdes capturés par Mars. Cependant la forme et l'orientation de leur orbite contredisent cette hypothèse. Deux études indépendantes et complémentaires apportent une réponse à cette question. Dans l'une, sous presse dans The Astrophysical Journal, des chercheurs majoritairement du CNRS et d'Aix-Marseille Université1 excluent la capture d'astéroïdes et montrent que le seul scénario compatible avec les propriétés de surface de Phobos et Deimos est celui d'un impact géant. Dans l'autre étude, grâce à des simulations numériques de pointe, une équipe belgo-franco-japonaise montre comment ces satellites ont pu se former à partir des débris d'une collision titanesque entre Mars et un embryon de planète trois fois plus petit. Ces travaux, fruit d'une collaboration entre des chercheurs de l'Université Paris Diderot et de l'Observatoire royal de Belgique, en collaboration avec le CNRS, l'Université de Rennes 12 et l'institut japonais ELSI, sont publiés le 4 juillet 2016 dans la revue Nature Geoscience.
L'origine des deux lunes de Mars, Phobos et Deimos, restait un mystère. Par leur petite taille et leur forme irrégulière, elles ressemblent beaucoup à des astéroïdes, mais on ne comprend pas comment Mars aurait pu les « capturer » pour en faire des satellites en orbite presque circulaire, dans le plan équatorial de la planète. Selon une théorie concurrente, Mars aurait subi à la fin de sa formation un impact géant avec un embryon de planète ; mais pourquoi les débris d'un tel impact auraient-ils formé deux petits satellites plutôt qu'une énorme lune, comme celle de la Terre ? Une troisième possibilité serait que Phobos et Deimos se soient formés en même temps que Mars, ce qui impliquerait qu'ils aient la même composition que leur planète ; cependant, leur faible densité semble contredire cette hypothèse. Aujourd'hui, deux études indépendantes viennent conforter la théorie de l'impact géant. 

Dans l'une d'elles, une équipe de recherche belgo-franco-japonaise propose pour la première fois un scénario complet et cohérent de formation de Phobos et Deimos, qui seraient nés des suites d'une collision entre Mars et un corps primordial trois fois plus petit, 100 à 800 millions d'années après le début de la formation de la planète. Selon ces chercheurs, les débris de cette collision auraient formé un disque très étendu autour de Mars, formé d'une partie interne dense, composée de matière en fusion et d'une partie externe très fine, majoritairement gazeuse. Dans la partie interne de ce disque se serait d'abord formée une lune mille fois plus massive que Phobos, aujourd'hui disparue. Les perturbations gravitationnelles créées dans le disque externe par cet astre massif auraient catalysé l'assemblage de débris pour former d'autres petites lunes plus lointaines. Au bout de quelques milliers d'années, Mars se serait alors retrouvée entourée d'un cortège d'une dizaine de petites lunes et d'une énorme lune. Plusieurs millions d'années plus tard, une fois le disque de débris dissipé, les effets de marée avec Mars auraient fait retomber sur la planète la plupart de ces satellites, dont la très grosse lune. Seules ont subsisté les deux petites lunes les plus lointaines, Phobos et Deimos (voir l'infographie en fin de communiqué).

À cause de la diversité des phénomènes physiques mis en jeu, aucune simulation numérique n'est capable de modéliser l'ensemble du processus. L'équipe de Pascal Rosenblatt et Sébastien Charnoz a dû alors combiner trois simulations de pointe successives pour rendre compte de la physique de l'impact géant, de la dynamique des débris issus de l'impact et de leur assemblage pour former des satellites, et enfin de l'évolution à long terme de ces satellites. 

Dans l'autre étude, des chercheurs du Laboratoire d'astrophysique de Marseille (CNRS/Aix-Marseille Université) excluent la possibilité d'une capture, sur la base d'arguments statistiques et en se fondant sur la diversité de composition des astéroïdes. De plus, ils montrent que la signature lumineuse émise par Phobos et Deimos est incompatible avec celle du matériau primordial qui aurait pu former Mars (des météorites de la classe des chondrites ordinaires, des chondrites à enstatite et/ou des angrites). Ils s'attachent donc au scénario de l'impact. Ils déduisent de cette signature lumineuse que les satellites sont composés de poussières fines (de taille inférieure au micromètre3). 

Or, la très petite taille des grains à la surface de Phobos et Deimos ne peut pas être expliquée uniquement comme la conséquence d'une érosion due au bombardement par les poussières interplanétaires, d'après ces chercheurs. Cela signifie que les satellites sont composés dès l'origine de grains très fins, qui ne peuvent se former que par condensation du gaz dans la zone externe du disque de débris (et non à partir du magma présent dans la zone interne). C'est un point sur lequel s'accordent les deux études. Par ailleurs, une formation des lunes de Mars à partir de ces grains très fins pourrait être responsable d'une forte porosité interne, ce qui expliquerait leur densité étonnamment faible. 

La théorie de l'impact géant, corroborée par ces deux études indépendantes, pourrait expliquer pourquoi l'hémisphère nord de Mars a une altitude plus basse que le sud : le bassin boréal est sans doute la trace d'un impact géant, comme celui qui a in fine donné naissance à Phobos et Deimos. Elle permet aussi de comprendre pourquoi Mars a deux satellites et non un seul comme notre Lune, aussi née d'un impact géant. Ce travail suggère que les systèmes de satellites formés dépendent de la vitesse de rotation de la planète, puisqu'à l'époque la Terre tournait très vite sur elle-même (en moins de quatre heures) alors que Mars tournait six fois plus lentement.

De nouvelles observations permettront bientôt d'en savoir plus sur l'âge et la composition des lunes de Mars. En effet, l'agence spatiale japonaise (JAXA) a décidé de lancer en 2022 une mission, baptisée Mars Moons Exploration (MMX), qui rapportera sur Terre en 2027 des échantillons de Phobos. L'analyse de ces échantillons pourra confirmer ou infirmer ce scénario. L'Agence spatiale européenne (ESA), en association avec l'agence spatiale russe (Roscosmos), prévoit une mission similaire en 2024.

Ces recherches ont bénéficié du soutien de l'IPGP, du Labex UnivEarthS, d'ELSI, de l'Université de Kobe, de l'Observatoire royal de Belgique et de l'Idex A*MIDEX.

 

 DOCUMENT         cnrs        LIEN

LA MUSIQUE CONTEMPORAINE

il y a 10 mois


musique contemporaine

Le mélange des générations

L'expression « musique contemporaine », qui renvoie, littéralement, à la musique savante créée du temps de l'auditeur, a acquis une acception particulière dans la seconde moitié du xxe s. Parfois confondue avec l'« avant-garde », elle n'en concerne pas moins tous les styles et toutes les formes esthétiques, un Xenakis, un Poulenc ou un Chostakovitch composant au même moment tout en suivant des directions souvent opposées, voire contradictoires. En effet, la situation de la musique savante au moment où prend fin la Seconde Guerre mondiale coïncide pour une part avec le passage d'une génération de musiciens à une autre : en consacrant la fin d'une époque, 1945 est aussi la date de la mort de Bartók et de Webern, un an avant celle de Manuel de Falla, alors que Schoenberg et Prokofiev en sont à leurs œuvres ultimes. Parallèlement aux compositeurs retirés de la vie musicale depuis longtemps, tels l'Américain Ives ou le Finlandais Sibelius, qui disparaissent respectivement en 1954 et 1957, les membres du groupe des Six, notamment Arthur Honegger (1892-1955), Darius Milhaud (1892-1974) et Francis Poulenc (1899-1963), poursuivent dans leur voie, alors que la jeune génération les ignore superbement. Ce croisement entre générations ne saurait être mieux illustré que par les Quatre Derniers Lieder avec lesquels Richard Strauss clôt son œuvre en 1948, au moment précis où Pierre Boulez (né en 1925) donne sa 2e Sonate pour piano. Toutefois, des grands créateurs qui ont marqué la première moitié du xxe s. reste surtout Igor Stravinski (1882-1971), qui traverse imperturbablement le siècle sans se soucier des modes et des esthétiques, passant, avec une aisance déconcertante, de l'attitude néomozartienne de son opéra The Rake's Progress (1951) à l'adoption, un peu plus tard, des techniques de la série dodécaphonique des compositeurs viennois.


Relativité de la notion d'école

Face aux bouleversements politiques qui agitent le monde pendant la période de la guerre froide, l'art musical est tantôt contraint de se plier aux impératifs des pouvoirs totalitaires, tantôt amené à fonctionner en autarcie en restant indifférent aux remous provoqués par les différents mouvements esthétiques qui luttent pour imposer leur conception. Alors qu'Igor Stravinski, Béla Bartók (1881-1945) et les compositeurs viennois – à l'exception d'Anton von Webern (1883-1945) – ont travaillé à élargir et à enrichir le contexte tonal hérité du passé, l'action de ces mouvements a principalement porté sur le système harmonique, les éléments morphologiques, au premier plan desquels les formes musicales et la dimension thématique constituent encore un lien avec le passé. Les profondes réformes entreprises par la génération d'après 1945 vont précisément affecter ces derniers paramètres, au point de provoquer avec l'époque précédente une scission d'autant plus forte que les grands noms qui l'illustrent seront souvent rejetés par les jeunes compositeurs qui interviendront au lendemain de la guerre.
La notion d'« école », fréquemment avancée au sujet de la musique de cette époque, demande à être nuancée, sinon révisée : si l'idée de disciples réunis autour d'un maître à penser peut être prise en compte pour l'« école de Vienne » – expression consacrée –, Alban Berg (1885-1935) et Webern n'en ont pas moins trouvé très rapidement leurs style et personnalité, tout en mettant à profit l'enseignement d'Arnold Schoenberg (1874-1951). Plus encore, on ne peut accepter la confusion entre l'appartenance à un groupe identifié et la communauté d'esprit qui rapproche certains compositeurs pendant une période réduite, comme pour ce qu'on a appelé trop rapidement l'« école de Darmstadt », qui ne peut être qualifiée comme telle. La seconde moitié du xxe s. musical n'en est pas moins profondément marquée par les personnalités de cette génération qui ont pour souci essentiel de reconstruire ou de fonder leur œuvre sur de nouvelles bases. C'est principalement en France et en Allemagne que les premiers éléments de ce renouveau font leur apparition dans l'immédiat après-guerre.
Les créateurs français de Messiaen à la musique concrète
Si la période qui va des années 1930 à la fin de la guerre n'a pas favorisé les échanges culturels, et surtout a relégué au second plan les créateurs originaux qui, pour la plupart, ont fui l'Europe, l'émigration qui en est résultée, principalement au profit des États-Unis, n'a pas suscité un renouveau particulier de ce côté-là de l'Atlantique. Plus précisément, ce sont les jeunes compositeurs américains, tels Aaron Copland (1900-1990) ou Elliott Carter (né en 1908), qui sont venus à Paris, pendant l'entre-deux-guerres, chercher un enseignement de qualité, les préparant solidement à leur métier, auprès de Nadia Boulanger (1887-1979), alors fervente admiratrice de Stravinski.


Au lendemain de la guerre, c'est la classe d'Olivier Messiaen (1908-1992), au Conservatoire, qui attire l'attention des jeunes musiciens. En effet, et pendant les quelque trente années de son enseignement, nombre de compositeurs, qui deviendront à leur tour des personnalités essentielles du monde musical, auront fréquenté ses cours. Cependant, la situation de la musique en France, en 1945, n'est guère plus brillante qu'à l'étranger, l'essentiel de l'œuvre de Bartók et de l'école de Vienne n'étant que peu diffusé – pour ne pas dire quasiment inconnu –, et c'est en grande partie à Messiaen que les jeunes musiciens doivent la révélation d'œuvres majeures de la musique de leur temps : Pierre Boulez, de même que Iannis Xenakis (1922-2001), Betsy Jolas (née en 1926), Karlheinz Stockhausen (1928-2007), Jean Barraqué (1928-1973), Gilbert Amy (né en 1936) et bien d'autres profitent de cet enseignement précieux, ainsi que de celui de René Leibowitz (1913-1972), qui contribue à diffuser la pensée de Schoenberg en France. Il est remarquable que Messiaen, alors même qu'il est très engagé dans son esthétique personnelle après les Vingt Regards sur l'Enfant Jésus (1944) ou la Turangalîla-Symphonie (1946-1948), n'influencera jamais ses élèves autrement que par ses conceptions rythmiques inspirées de la prosodie grecque et des traditions de l'Inde. Au-delà de la transmission des notions purement techniques, et de son intense foi catholique qu'il destine plus à la salle de concert qu'au saint lieu, Messiaen joue un rôle déterminant dans le développement de la curiosité de ses élèves, qu'il sait sensibiliser à des musiques de sources et de cultures différentes, notamment les musiques extraeuropéennes – et tout particulièrement les sonorités des gamelans de Bali.

Parallèlement à cet enseignement inscrit dans une tradition, Pierre Schaeffer (1910-1995) diffuse à Radio-Paris, le 20 juin 1948, ses Études de bruits, inaugurant ainsi la musique « concrète » : composée à partir de sons existants, enregistrés puis retravaillés – « Étude aux casseroles », « Étude aux chemins de fer », etc. –, cette musique propose une nouvelle approche de la composition en travaillant directement sur le résultat entendu à partir de la table de mixage. Schaeffer développe ses activités en créant, en 1951, le « Groupe de recherche de musique concrète » (qui deviendra le « Groupe de recherches musicales » en 1957), qu'il dirige avec Pierre Henry (né en 1927), avec lequel il a composé la Symphonie pour un homme seul en 1950. La démarche d'Edgard Varèse (1883-1965) avait largement ouvert la voie à ce rapprochement en tentant de gommer la différence entre les bruits et les sons, au profit d'une musique définie plus largement en termes de « sons organisés ». Très critique à l'égard de l'orchestre traditionnel, « qui ne correspond plus à son époque », Varèse développe l'idée de l'ensemble instrumental composé d'instruments à vent et à percussion. Profitant des perfectionnements des instruments électriques et du magnétophone, il explore la combinaison entre orchestre traditionnel et bande magnétique en faisant alterner l'une et l'autre dans Déserts (1952), qui devient ainsi une œuvre fondatrice de la musique dite « électroacoustique ».


Le parcours consistant à acquérir un solide métier de compositeur auprès de Messiaen, et à explorer le nouvel univers de la musique électroacoustique fait de Paris un centre d'intérêt exceptionnel pour les jeunes musiciens. Là encore, Boulez, Stockhausen, Xenakis et même Messiaen expérimentent, comme beaucoup d'autres le feront après eux, les possibilités offertes par le studio de la Radiodiffusion française.


Les rencontres de Darmstadt
Dès 1946, les Cours d'été créés à Darmstadt par Wolfgang Steinecke (1910-1961) rassemblent des professeurs (Messiaen, Varèse sont parmi les premiers invités) et de jeunes compositeurs qui manifestent fermement leur volonté de repartir sur de nouvelles bases en prônant la « table rase ». Boulez et Stockhausen, auxquels se joignent Bruno Maderna (1920-1973), Luigi Nono (1924-1990) et Luciano Berio (1925-2003), apparaissent comme les chefs de file d'une conception musicale qui se manifeste par son degré d'exigence au service de l'élaboration d'un nouveau langage. Très rapidement, Webern, le troisième compositeur de l'école de Vienne, est élu comme seul modèle, sa musique étant perçue comme débarrassée de toutes les scories de l'univers tonal et surtout aux antipodes des manières néoclassiques qui avaient marqué l'entre-deux-guerres. La série dodécaphonique, que Schoenberg avait inaugurée au début des années 1920, n'est acceptée désormais que sous l'angle wébernien, avec pour conséquence immédiate une accumulation d'imitations serviles du style de ce dernier. On comprend d'autant mieux que cette période soit caractérisée par des oppositions farouches entre les partisans du pointillisme sériel et les compositeurs plus attachés à la tradition : l'article « Schoenberg est mort » – à prendre au sens propre comme au sens figuré – que Boulez écrit en 1951, au moment de la disparition du compositeur viennois, est révélateur de l'état d'esprit de ces jeunes musiciens qui prennent résolument leurs distances avec la plupart de leurs aînés. Seul Claude Debussy (1862-1918), dont l'œuvre atteste une tentative de libération à l'égard des modèles préétablis et des conventions du langage tonal, apparaît comme l'une des autres sources essentielles dans ce réexamen sans concession des acquisitions du passé.
C'est aussi à cette époque que paraît la Philosophie de la nouvelle musique (1949) de Theodor Adorno (1903-1969) – philosophe proche de Max Horkheimer et de l'école de Francfort, et musicien ayant étudié avec Alban Berg –, qui oppose les deux grands courants représentés par Schoenberg et par Stravinski en les analysant respectivement comme les manifestations du progrès et de la restauration. En dépit de la polémique parfois caricaturale du débat très animé entre « modernité » et « néoclassicisme » qui déchaîne alors les passions, Adorno restera l'un des personnages clés par sa réflexion sur la sociologie musicale contemporaine et la relation qu'il établit entre la musique de son temps et la société dans laquelle elle s'inscrit.


La période du sérialisme
Darmstadt apparaît surtout comme le symbole de ce qui deviendra bientôt le « sérialisme généralisé » (l'organisation à partir des douze sons de la série est désormais appliquée aux autres paramètres, par exemple à partir de douze durées, de douze intensités, etc.). C'est une des Quatre Études de rythme pour piano de Messiaen, Mode de valeurs et d'intensités, précisément composée à Darmstadt en 1949, qui est en grande partie à l'origine de cet engouement. En effet, la tendance « sérielle » de cette étude, proposant une dissociation consciente des principaux paramètres, déclenche une vaste réflexion. Les récentes préoccupations visant à forger un nouveau langage destiné à supplanter le précédent donnent ainsi lieu à des œuvres dont les titres révèlent clairement les avancées d'alors, exclusivement centrées sur les conditions du langage : Structures (Boulez), Kontra-Punkte ([« Contrepoints »], Stockhausen), ou Polifonica-monodica-ritmica (Nono), et qui ne seront tempérées que par les Sérénades de Berio et de Maderna.
Cette période de recherche intense, fondée sur un sérialisme le plus souvent rigide, sera en fait de brève durée, et l'assouplissement des techniques permettra bientôt l'émergence, dès le milieu des années 1950, de partitions plus personnelles et plus distanciées par rapport au modèle wébernien (le Marteau sans maître de Boulez, Gruppen de Stockhausen ou Il Canto Sospeso de Nono).
Trop souvent présentée comme le phénomène majeur de la seconde moitié du xxe s., la musique sérielle n'en est qu'une manifestation parmi d'autres et suscite de nombreuses interprétations sous la plume des compositeurs : c'est la force de conviction affichée par ses principaux acteurs et sa revendication à occuper le devant de la scène qui contribueront parfois à la considérer comme un événement dominant.


La génération américaine

En 1949 arrive à Paris un jeune Américain, John Cage (1912-1992), dont Boulez présente aussitôt les Sonates et Interludes (1946-1948) pour « piano préparé » (dans lequel on a inséré des objets – en métal, en bois, en caoutchouc… – entre les cordes), pouvant aller jusqu'à évoquer des sonorités d'instruments extraeuropéens. Dans le sillage de Marcel Duchamp (1887-1968), Cage réfute la notion d'« œuvre », tout autant qu'il refuse le statut de compositeur, et sera l'un des acteurs de l'introduction du hasard en musique avec ses compatriotes Morton Feldman (1926-1987) et Christian Wolff (né en 1934). Autre compositeur de premier plan et particulièrement joué en Europe, Earle Brown (né en 1926), trop souvent rattaché aux idées de Cage, cherche à impliquer l'interprète sans renoncer pour autant à l'œuvre. Féru de jazz et attiré par les arts plastiques (Pollock, Rauschenberg), Brown explore cette marge entre précision et flexibilité qu'il remarque dans les mobiles de Calder, à travers des relations sans cesse changeantes entre des éléments qui, pris isolément, restent fixes.
La rencontre entre cette génération d'Américains qui postulent, à des degrés divers, en faveur de la prétendue « liberté » dans la non-œuvre et celle des Européens adeptes du sérialisme fondé sur une rigueur extrême est à la source des nouvelles orientations qui se feront bientôt jour : bien qu'elles soient aux antipodes l'une de l'autre, ces deux approches se rejoignent dans la recherche d'une forme de contrainte pour parvenir à la liberté, et d'une forme d'assouplissement pour se libérer d'un carcan trop rigide : la convergence des méthodes et la divergence dans l'esthétique compositionnelle se croisent ainsi dans la problématique de la « forme ouverte ».


La musique aléatoire
Considérer les degrés d'introduction du hasard en musique – d'où la notion de musique aléatoire – consiste à examiner les paramètres concernés. La question doit être envisagée tant du point de vue de la composition de l'œuvre que de celui de l'exécution, avec le plus souvent pour conséquence des mutations importantes dans la notation musicale – du solfège traditionnel, mais agencé formellement de façon inhabituelle, à l'utilisation de symboles nouveaux. Le nombre important des attitudes exige que soit précisée cette notion de hasard à laquelle on préférera celle d'« indétermination » concernant l'un des paramètres non fixés, et que l'on répartira ici en trois catégories générales : indétermination du cadre temporel de l'œuvre (le texte musical est écrit, mais flexible à l'intérieur d'une enveloppe de durée dans laquelle le tempo n'est pas strictement déterminé) ; indétermination des hauteurs (le texte est écrit, mais le recours à des symboles qui ne sont pas ceux du solfège introduit une nouvelle flexibilité) ; indétermination de la forme (différents « parcours » – suggérés ou non – autorisent plusieurs déroulements formels).
L'essentiel du débat portant sur la part de l'œuvre soumise à l'indétermination, les orientations qui s'offrent se traduisent par un éventail très large de possibilités, selon la position esthétique du compositeur qui n'entend pas se laisser déposséder de son œuvre – Boulez défend l'idée d'un « hasard dirigé » et Witold Lutoslawski (1913-1994), celle d'un « aléatoire contrôlé » – ou du compositeur qui opte pour l'autre extrême. John Cage, marqué par la philosophie zen dont il a fait son mode de pensée, joue évidemment un grand rôle dans ce contexte, notamment en ayant recours aux tables numériques du Yijing (le Livre des mutations de l'ancienne Chine) pour écrire, en 1951, Music of Changes pour piano et Imaginary Landscape n° 4 pour douze radios (vingt-quatre exécutants plus un chef). Si la première composition, dont la partition est encore notée avec le solfège traditionnel, « libère le temps » de l'œuvre en déterminant le tempo au hasard, la seconde pose le problème différemment, puisque le compositeur est désormais libéré des sons : ici, ce sont les opérations de hasard qui déterminent les volumes sonores, les durées et les fréquences des douze radios.


Musique et littérature
Comme en écho à la célèbre formule mallarméenne qui souhaitait « reprendre à la musique son bien », certains compositeurs en viennent à constater que le renouvellement du langage a été plus considérable dans la littérature de la première moitié du xxe s. que dans la musique. L'intérêt que ces créateurs, principalement les Français, manifestent pour l'œuvre de Mallarmé – dont la conception du Coup de dés ne pouvait qu'attirer l'attention d'un compositeur – et pour celle de James Joyce coïncide avec la double émergence, dans les années 1950, du structuralisme, d'une part, et du « nouveau roman », d'autre part : Claude Lévi-Strauss analyse la situation de la musique atonale dans le Cru et le cuit (1964) et Michel Butor collabore à la composition du Votre Faust (1960-1967) d'Henri Pousseur (né en 1929). Ainsi, on ne s'étonnera pas de voir les œuvres de Proust, des poètes E. E. Cummings et Ezra Pound au centre des préoccupations de nombre de compositeurs, qui trouvent alors dans la littérature l'alternative aux conceptions du hasard proposées par John Cage.


Si Mallarmé influence particulièrement Boulez (3e Sonate pour piano, 1957 ; Pli selon pli, « Portrait de Mallarmé », 1960 ; Éclat-multiple, Explosante-fixe, 1970), Joyce marque profondément de son empreinte la musique de cette époque : des écrits tels qu'Ulysse (1922), qui propose une individualisation et une multiplication des styles et des niveaux de lecture selon les personnages, et Finnegans Wake (1939), qualifié par Joyce lui-même de work in progress (« œuvre en devenir »), amènent certains compositeurs, dont Boulez et Berio en premier lieu, à réfléchir sur les conditions de cette « ouverture » qui se situe à l'encontre de l'œuvre « finie » et figée dans un schéma immuable. Les conséquences sont essentiellement de deux ordres : l'œuvre musicale entend désormais proposer plusieurs niveaux de lecture, et l'interprète se voit chargé d'une responsabilité nouvelle en étant le principal acteur de la forme. Cette notion de « lecture multiple », déjà latente chez l'écrivain Raymond Queneau et étudiée par Umberto Eco dans l'Œuvre ouverte (1962), trouve un écho remarquable dans la musique de Berio, qui fonde le studio de phonologie à Milan, précisément en collaboration avec Maderna, Boucourechliev et Eco. De la Sequenza I pour flûte (1958), où la notation musicale devient proportionnelle, à Epifanie pour voix et orchestre (1961), sur des textes de Proust, Joyce, Machado, Brecht et Claude Simon, Berio explore les niveaux multiples de la perception et de la compréhension d'un texte musical. Dans le même esprit, André Boucourechliev (1925-1997) parvient, avec ses Archipels (1967-1972), chef-d'œuvre de la musique aléatoire, à renouveler la notion de partition – sur laquelle sont notés plus des « matériaux à réaliser » qu'un véritable texte fini – et prolonge les recherches de Brown en inscrivant l'interprète dans l'œuvre même.


La diffusion de la musique contemporaine

Bien que l'Europe occidentale ait su rétablir les réseaux de la musique, en particulier entre Paris et Darmstadt, un certain nombre de compositeurs vivaient encore de façon isolée dans des pays où les options politiques prenaient le pas sur la liberté d'expression. Lorsque, à la faveur des événements de 1956 en Hongrie, György Ligeti (né en 1923) rejoint l'Autriche, il découvre brutalement un pan essentiel de la musique des dix années précédentes. Il s'agit là d'un exemple parmi d'autres, la situation en U.R.S.S. favorisant le même isolement des artistes, qui se devaient de répondre aux exigences du pouvoir en matière d'art, fixées par les directives du réalisme socialiste (rédigées par Jdanov en 1948).
C'est dans ce contexte que Paris affirme son rôle prépondérant, voire centralisateur, dans la création contemporaine, lorsque Boulez fonde en 1954, grâce à des fonds privés, les concerts du Domaine musical, dont les programmes couvriront une part importante de la production de cette époque. Comme pour répondre à Schoenberg, qui laisse entendre que la musique qu'il crée n'est pas « moderne », mais « mal jouée », Boulez travaille sur la qualité des exécutions, cherchant à établir des liens entre le passé et la musique du présent. En programmant de façon originale des œuvres des xviie et xviiie s., voire du Moyen Âge, et des partitions contemporaines, il tente de mettre en relation des conceptions comparables dans des langages différents. Pour en finir avec le divorce – dont l'origine date en réalité du siècle précédent – entre la musique contemporaine et le public, il faut en passer par un effort de communication sociale, qui se traduit notamment par la multiplication des écrits, en forme le plus souvent de justification, des musiciens. Il n'en reste pas moins que le Domaine musical, par son rôle de rassembleur de l'avant-garde, draine, jusqu'en 1973, un nombre important de compositeurs qui répondent aux critères de la nouvelle génération européenne.


La musique électronique
De même, et parallèlement à l'esthétique sérielle alors prédominante, apparaissent les studios de musique électronique, qui tirent parti des progrès de la technologie, et, grâce aux perfectionnements rapides dont bénéficie le magnétophone, le premier studio de musique électronique est fondé à la radio de Cologne en 1951 et placé sous la direction de Herbert Eimert (1897-1972). Dans ce studio, où Stockhausen travaillera de nombreuses années (Gesang der Jünglinge), comme dans ceux de New York, Londres et Paris, de nouvelles approches induisent une autre conception de la perception. Les fortes réactions à la musique sérielle passent en particulier par la critique de Iannis Xenakis, qui, dès 1955, souligne la contradiction qui existe entre le pointillisme éclaté et la perception, entre « le système polyphonique linéaire et le résultat entendu qui est surface, masse ». Postuler ainsi en faveur d'une perception globale et non plus individuelle conduit Xenakis à favoriser la continuité entre les sons dans Metastasis pour un orchestre de 61 instruments (1953-1954) et Pithoprakta (1955-1956), où les longs glissandos des quarante-six cordes effacent le sentiment de totale dispersion sonore. Architecte de formation, Xenakis sera notamment l'assistant de Le Corbusier pour l'élaboration du pavillon Philips à l'Exposition universelle de Bruxelles en 1958 – pour lequel Varèse composera son Poème électronique pour bande magnétique – et prendra en compte les phénomènes de spatialisation dans sa musique (musiciens disposés en cercle autour du public dans Persephassa, pour 6 percussionnistes, 1969).
L'expérience électronique, en termes de gestion des masses impliquant une perception globale des phénomènes, trouve surtout une application chez Ligeti, qui, après avoir exploré les techniques en ce domaine, travaille au déplacement des masses dans Atmosphères (grand orchestre, 1961). À la même époque, la jeune génération polonaise, dont Krzysztof Penderecki (né en 1933) apparaît alors comme l'une des personnalités prééminentes, accentue cette recherche de perception globale en choisissant de privilégier la profusion de sons (les « clusters ») et en adaptant la notation musicale, qui devient à son tour plus globale (Thrène à la mémoire des victimes d'Hiroshima, 1960).
Ainsi, le sérialisme, qui ambitionnait d'élaborer un nouveau langage à dimension internationale, connaît un premier démenti sévère, d'autant plus que l'électronique oriente, dans un second temps, les préoccupations vers l'exploration intérieure du son : certains compositeurs proposent désormais des œuvres limitées sur un matériau très réduit, voire un son, tel Giacinto Scelsi (1905-1988) dans ses Quatre Pièces sur une seule note pour orchestre (1959), ou travaillent sur la lente élaboration à partir d'un son progressivement enrichi, tel Ligeti avec Lux aeterna, pour 16 voix (1966).
Les « indépendants »

Il serait caricatural de réduire la production musicale de cette époque à ce débat entre perception « individualisée » et perception « globalisée », tant il concerne principalement les avant-gardes. Nombre de compositeurs restent en effet à l'écart de ce contexte, et souhaitent garder leur indépendance, soit qu'ils manifestent un fort attachement à la tradition, soit que leurs recherches aient été ignorées par les mouvements esthétiques dominants : André Jolivet (1905-1974), marqué à ses débuts par Varèse, Maurice Ohana (1914-1992), proche par ses origines de la culture espagnole, et autant séduit par le jazz qu'intéressé par l'écriture en micro-intervalles en tiers de tons, ou encore Henri Dutilleux (né en 1916), dont l'œuvre orchestrale reste l'une des plus remarquables de cette époque (Métaboles, 1964 ; Tout un monde lointain, concerto pour violoncelle, 1970), sont parmi les compositeurs qui subissent le contrecoup de la politique de l'avant-garde. De même, à l'étranger, le Suisse Frank Martin (1890-1974), l'Américain Aaron Copland ou les Britanniques Michael Tippett (1905-1998) et Benjamin Britten (1913-1976) poursuivent en marge leur œuvre dérivée de l'univers tonal, parallèlement aux bouleversements qui agitent la musique savante contemporaine.
C'est pourtant aux États-Unis qu'apparaît un mouvement qui se répandra rapidement et qui prône une autre approche de la perception fondée sur la répétitivité. Les musiques répétitives développées par Terry Riley (né en 1935), La Monte Young (né en 1935), Steve Reich (né en 1936) et Philip Glass (né en 1937) sont moins conçues sur la qualité même des éléments musicaux que sur leur répartition dans la durée. L'œuvre de ces musiciens, qui est plus diversifiée que l'appellation générique pourrait le laisser croire, va marquer certains courants en Europe, et la musique, souvent subtile, d'un Reich est parfois à rapprocher de celle de compositeurs attachés à la notion d'écriture et apparemment très éloignés de cette attitude.


Le théâtre musical
En cette période où se multiplient les anathèmes contre les genres consacrés – notamment l'opéra, déclaré « mort » –, le théâtre musical tantôt est l'objet d'expériences de renouvellement, comme celles de Bernd Alois Zimmermann (1918-1970) dans son opéra Die Soldaten (1958-1960, créé en 1965) – où les dimensions du passé, du présent et du futur sont présentées simultanément –, tantôt s'inspire des happenings qui marquent les arts en général : après les « anthropométries » du peintre Yves Klein en 1960 – des femmes nues enduites de peinture bleue appliquent leurs corps sur la toile –, les œuvres de théâtre musical cèdent à divers degrés à la provocation en mettant en scène les dimensions sociales. Berio introduit un chœur dispersé dans le public dont la fonction est d'interpeller la chanteuse sur scène (Passagio, 1962), Ligeti prend le parti de l'ironie (Aventures, 1962-1963) et Peter Maxwell Davies (né en 1934), celui de l'absurde (Huit Chants pour un roi fou, 1969), alors que l'Argentin Mauricio Kagel (1931-2008) interprète de façon critique la situation du concert et de l'opéra (Staatstheater, « anti-opéra », 1967-1970). Ce n'est que dans les années 1970 que se produisent des tentatives de réactualisation de l'opéra, avec le Grand Macabre de Ligeti (1974-1977) ou les œuvres de Berio composées en collaboration avec Italo Calvino (La Vera Storia, 1977-1978 ; Un re in ascolto, 1979-1984).


Le tournant de la fin des années 1960
Symboliquement, 1968 consacre la crise de la société que la musique illustre aussi à sa manière. Après la faillite du sérialisme et l'épuisement des solutions expérimentales, la crise de la communication sociale entre les compositeurs et le public passe par la réintégration de l'histoire, qui avait été brutalement évacuée vingt ans plus tôt au nom de la table rase. Cette réconciliation avec le passé revêt différents aspects sous forme de « relectures », dont l'un des premiers exemples est offert par Berio dans ses Folk Songs fondés sur d'authentiques chants populaires (1964). La dimension thématique, qui avait été gommée au profit de la réflexion sur le langage, permet ainsi cette réconciliation dans des œuvres aussi représentatives que Musiques pour les soupers du roi Ubu (1967) de Zimmermann, la Sinfonia (1968) de Berio – dont un mouvement est basé sur la musique de Mahler à laquelle sont intégrés nombre de fragments d'autres auteurs –, ou Ombres (1970), pour onze instruments à cordes, de Boucourechliev, « en hommage à Beethoven ». Une seconde attitude, plus dégagée des références précises au répertoire du passé, est dictée par les emprunts stylistiques à d'autres cultures : on la trouve chez Messiaen, marqué par le Japon dans les Sept Haï-Kaï (ou Esquisses japonaises, 1962), chez Kagel dans ses Musiques pour instruments de la Renaissance (1965), chez Stockhausen dans Hymnen (1966-1967) pour bande magnétique d'après des hymnes nationaux mixés et travaillés, ou encore chez le Japonais Takemitsu Toru (1930-1996), qui propose le croisement entre l'Orient et l'Occident dans November Steps II (1967) pour biwa et shakuhachi – deux instruments traditionnels – et orchestre symphonique. Plus généralement, l'attrait pour l'Orient qui s'exerce sur la jeune génération à cette époque n'épargne pas certains compositeurs qui s'engagent dans les musiques « méditatives » (Stimmung de Stockhausen, 1968) ou qui succombent aux vertus redécouvertes de l'improvisation, favorisant parfois un rapprochement avec le free jazz.


Des voies de recherche sans cesse renouvelées
À cette période de crise qui a conduit à une réévaluation complète de la production musicale de deux décennies correspondent, d'une part, l'émergence de nouvelles institutions qui entendent traiter la relation entre la musique et les autres domaines culturels et scientifiques et, d'autre part, l'arrivée d'une nouvelle génération critique à l'égard de ses aînés. Parallèlement à la création à Paris du Centre national d'art et de culture, à l'initiative du président Georges Pompidou, qui voulait doter la France d'une grande institution d'art contemporain, Pierre Boulez, qui poursuit sa carrière de chef d'orchestre, est rappelé en France, après son exil volontaire de plusieurs années, pour prendre en charge l'I.R.C.A.M. (Institut de recherche et de coordination acoustique-musique) à partir de 1974. Deux ans plus tard est fondé l'Ensemble InterContemporain, dont la mission est de jouer la musique de notre temps dans les meilleures conditions et en relation avec les technologies informatiques mises au point à l'I.R.C.A.M. L'un des événements majeurs de cette collaboration technique, scientifique et musicale sera Répons (1981-1988) de Boulez, qui utilise l'ordinateur pour la spatialisation et les transformations de la musique jouée par l'ensemble instrumental disposé au centre de la salle.


Les dernières années de l'enseignement de Messiaen au Conservatoire sont marquées par la présence de jeunes compositeurs qui, hostiles au sérialisme, entendent fonder leur approche compositionnelle sur le son lui-même, en se réclamant de Varèse, de Scelsi ou de Ligeti. La « musique spectrale » d'Hugues Dufourt (né en 1943), de Gérard Grisey (1946-1998), de Tristan Murail (né en 1947) ou de Michaël Lévinas (né en 1949) traduit la volonté de ces compositeurs de placer la perception du son au premier plan de leurs préoccupations, l'analyse du son fournissant les conditions mêmes du déroulement temporel de l'œuvre (les Espaces acoustiques de Grisey, 1974-1985).
Le sérialisme n'en trouve pas moins un second souffle à travers les conceptions de Brian Ferneyhough (né en 1943), qui cultive une forme particulière de complexité à partir de ses Sonatas pour quatuor à cordes (1967), et surtout dans les années 1980, où l'on observe des tentatives de croisement entre ces techniques d'écriture réactualisées et des approches influencées par la musique spectrale. L'œuvre de la jeune génération – représentée par l'Allemand Wolfgang Rihm (né en 1952), qui renoue avec une forme d'expressionnisme personnalisé, le Français Pascal Dusapin (né en 1955), explorant un nouveau théâtre musical, ou le Finlandais Magnus Lindberg (né en 1958), à la croisée des chemins – révèle un éclectisme qui est le résultat d'une recherche située délibérément hors des débats qui ont agité l'art musical pendant près d'un demi-siècle. Mais le véritable renouvellement semble venir de l'épuration sonore pratiquée par Nono dans ses dernières œuvres, où le son devient intense dans un discours traversé par un silence habité (Fragmente Stille an Diotima, pour quatuor à cordes, 1979-1980), ou par le Hongrois György Kurtág (né en 1926), qui, nourri de Schumann et de Webern, produit une musique exigeante et séduisante d'où l'anecdote est irrémédiablement évacuée (Stele pour orchestre, 1994).


Émancipation à l'Est et postmodernisme
Tout aussi symboliquement, vingt ans après les événements de 1968, les mutations politiques de l'Europe de l'Est vont bouleverser le paysage musical dans la mesure où l'Occident découvre, le plus souvent avec un décalage important, des compositeurs dont l'œuvre était restée méconnue. Il est vrai que, dès le début des années 1980, des musiciens soviétiques comme Edison Vassilievitch Denisov (1929-1996), Sofia Goubaïdoulina (née en 1931) et Alfred Schnittke (1934-1998) ont pu rejoindre l'Europe de l'Ouest. Schnittke apparaît rapidement comme le compositeur le plus remarquable de cette génération, sachant réactualiser avec talent des genres consacrés (symphonie, concerto, opéra). Par ailleurs, l'affirmation nationale qui s'exprime dans les Républiques nouvellement indépendantes permet notamment la diffusion des musiques en provenance d'Estonie, qui trouvent leur origine dans la tradition vocale des siècles passés et exploitent une forme de musique répétitive – à ne pas confondre avec les tentatives américaines, tant cette dimension est présente dans les sources de la musique populaire estonienne. Apôtre de la simplicité et d'un dépouillement au mysticisme avoué, Arvo Pärt (né en 1935) est bientôt reconnu comme le personnage central de cette esthétique. Par le « minimalisme » ambiant qui marque le style tardif du Polonais Henryk Górecki (né en 1933) ou du Britannique John Tavener (né en 1944), ou encore par la filiation « néotonale » de l'Américain John Adams (né en 1947), on constate combien ces compositeurs se réjouissent de rétablir un lien avec un public dont la soif de nostalgie n'est qu'une des manifestations de cet éclatement généralisé des années 1990.
La fin du xxe s. restera donc marquée par le cheminement parallèle d'esthétiques très différentes : les diverses conceptions d'écriture, l'intervention de l'ordinateur dans le travail du compositeur, les préoccupations fondées sur l'analyse du spectre sonore voisinent avec les formes du postmodernisme qui affecte une part de la production musicale. L'idée même de postmodernisme, qui sous-entend la capacité à prendre en considération les références du passé pour les injecter dans l'œuvre, est présente à toutes les époques, et un mouvement comme celui de la « Nouvelle Simplicité » apparu en Allemagne à la fin des années 1970, proclamant le retour nécessaire au système tonal, n'est qu'un exemple parmi d'autres de ces allers et retours de l'histoire sur elle-même. (¿ dodécaphonisme ; ¿ opéra contemporain.)

 

 DOCUMENT   larousse.fr    LIEN

L'INNÉ ET L'ACQUIS DANS LA STRUCTURE DU CERVEAU

23/07/2016

L'inné et l'acquis dans la structure du cerveau
Jean-Pierre Changeux dans mensuel 331 


Nous sommes génétiquement programmés pour apprendre, c'est-à-dire pour échapper à un strict déterminisme génétique. Mais jusqu'à quel point pouvons-nous nous adapter ? Quelles sont les limites du cerveau humain et peut-on les modifier ?
Quelle part de notre comportement, de nos actes, de nos idées, de notre conscience est déterminée par le contenu chromosomique de l'oeuf fécondé dont nous sommes issus - en un mot, est innée ? Quelle part au contraire est acquise lors de l'interaction de l'individu avec son environnement immédiat : physique, social ou culturel ? Cette question a donné lieu au cours de l'histoire à des prises de position passionnées où les idées préconçues d'inspiration morale, religieuse ou philosophique l'emportaient souvent sur la stricte objectivité scientifique1.

Mon propos n'est pas de trancher ce débat, mais plutôt d'essayer de définir les limites dans lesquelles il doit être tenu. Pour ce faire, je rapporterai quelques observations récentes d'anatomistes, psychobiologistes, généticiens ou neurobiologistes qui s'intéressent à la morphogenèse fonctionnelle du système nerveux central des vertébrés supérieurs. Je ne ferai qu'occasionnellement référence à l'espèce humaine, me limitant aux problèmes déjà fort complexes posés par l'organisation cérébrale de petits mammifères comme la souris. Le lecteur sera évidemment tenté d'extrapoler à l'homme les résultats obtenus chez l'animal. Cette démarche est souvent légitime mais, en certains cas, une extrapolation hâtive risque de mener à des simplifications abusives masquant un problème fondamental plus complexe. Rappelons toutefois, comme l'écrivait Buffon : « S 'il n'existait pas d'animaux, la nature de l'homme serait encore plus incompréhensible » .

Avant d'en venir à la description des faits d'actualité, il n'est pas inutile d'évoquer le point de vue d'un grand naturaliste du siècle « philosophique », Jean-Baptiste de Lamarck. Dans le second tome de sa Philosophie zoologique 1809, tome consacré presque exclusivement à des questions de neurobiologie et de psychologie, il tente une première conciliation rationnelle entre les données scientifiques et les idées philosophiques de son époque. Il écrit : « Il appartient principalement au zoologiste qui s'est appliqué à l'étude des phénomènes organiques de rechercher ce que sont les idées, comment elles se produisent, comment elles se conservent. [...]

Je suis persuadé que tous les actes d'intelligence sont des phénomènes naturels et, par conséquent, que ces actes prennent leur source dans des causes uniquement physiques. [...] On ne saurait douter maintenant que les actes d'intelligence ne soient uniquement des faits d'organisation, puisque, dans l'homme même, qui tient de si près aux animaux par la sienne, il est reconnu que des dérangements dans les organes qui produisent ces actes en entraînent dans la production des actes dont il s'agit, et dans la nature même de leurs résultats . » Ces faits d'organisation, Lamarck ne les conçoit pas de façon statique. Introduisant une distinction capitale, il ajoute en effet : « On peut, sans doute, apporter en naissant les dispositions particulières pour des penchants que les parents transmettent par l'organisation mais, certes, si l'on n'eût pas exercé fortement et habituellement les facultés que ces dispositions favorisent, l'organe particulier qui en exécute les actes ne se serait pas développé. »

Depuis le début du XIXe siècle, d'immenses progrès ont été accomplis dans une discipline dont le fondateur de la « biologie » avait saisi la richesse ; mais, aujourd'hui encore, ces vues de Lamarck sont vivantes par leur lucidité presque prophétique. On sait maintenant que l'« organisation » dont parle Lamarck est constituée par un ensemble complexe de milliards de cellules nerveuses, ou neurones, en contact les unes avec les autres par leurs prolongements axoniques ou dendritiques. Comme l'exprime avec beaucoup d'exactitude J.Z. Young dans son livre A M odel of the ß/IIßrain : « Le cerveau constitue une sorte d'ordinateur qui donne des ordres qui sont eux-mêmes traduits en actes et permettent à l'organisme de survivre, comme un "homéostat", dans un environnement particulier. Cet ordinateur est de type analogique, et non pas digital, en ce sens qu'il est lui-même une représentation physique du monde extérieur perçu par les organes des sens. [...] La machine analogique du cerveau est présélectionnée pour effectuer des opérations avec l'environnement de l'organisme [...] . Sa construction s'effectue en partie ou largement par l'hérédité, mais l'apprentissage peut influencer cette construction. Le cerveau est donc un ordinateur capable de s'automodifier 2 . »

A l'exception d'une mince frange structurale constituée par les arborisations terminales de certains neurones corticaux, la mise en place de l'organisation cérébrale résulte de l'expression séquentielle, de l'oeuf à l'adulte, d'un programme génétique parfaitement déterminé. Il est clair que, dans un certain nombre de cas bien établis, une interaction avec l'environnement est nécessaire au déroulement de ce programme, mais il est non moins clair que ce programme a été sélectionné compte tenu de cette interaction.

Certains comportements élémentaires sont programmés dès l'oeuf et feront l'objet d'un « exercice fonctionnel » qui les stabilisera ; mais ils n'ont pas à être appris. Ils sont innés ou instinctifs. C'est le cas de la construction du nid chez les oiseaux, du comportement sexuel, de certaines formes d'agressivité, etc.3. Nous avons même vu que l'aptitude à apprendre est, chez la souris, conditionnée par des facteurs héréditaires. Placées dans le même environnement, les souris nées « intelligentes » apprendront plus vite que celles nées moins intelligentes.

Toutefois, on ne saurait trop insister sur le fait que, si la capacité à apprendre est génétiquement programmée, les « réussites » de l'apprentissage ne s'inscrivent pas immédiatement dans le programme de leurs auteurs. En aucun cas, ce qui a été appris chez l'adulte n'est transmissible directement par l'hérédité. On trouvera une excellente discussion de ce problème par A. Weismann dans ses Réflexions sur la musique chez les animaux et chez l'homme 4 . En revanche, la réussite de l'apprentissage peut indirectement , par le jeu des mutations et de la sélection, entraîner une modification du programme génétique. Par exemple, la capacité d'apprentissage présente une valeur sélective considérable pour l'animal qui la possède : dans une population hétérogène de souris, les mutants capables d'apprendre à fuir plus vite que leurs congénères ont plus de chances d'échapper à leurs prédateurs, et donc de survivre. « Il n'y a aucune difficulté à admettre , écrit Darwin dans l' Evolution des espèces , que la sélection naturelle puisse conserver et accumuler constamment les variations de l'instinct aussi longtemps qu'elles sont profitables aux individus . »

Cet élargissement, par mutations, de la capacité d'apprendre se poursuit jusqu'à l'homme. « L'adaptabilité "infinie" du cerveau de l'homme lui confère une valeur sélective exceptionnelle » , écrit Haeckel dans son Histoire de la création naturelle . Cette adaptation s'effectue, comme le souligne J.Z. Young, beaucoup plus rapidement que par l'entremise du système génétique. Ce qui semble donc très caractéristique des vertébrés supérieurs, c'est précisément la propriété d'échapper au déterminisme génétique absolu menant aux comportements stéréotypés du type de ceux décrits par l'excellent zoologue K. Lorenz3 ; c'est la propriété de posséder à la naissance certaines structures cérébrales non déterminées qui, par la suite, sont spécifiées par une rencontre le plus souvent imposée, parfois fortuite, avec l'environnement physique, social ou culturel. Mais, comme le suggèrent les expériences chez les souris, cette adaptabilité n'est pas « infinie », même chez l'homme, contrairement à ce qu'écrit Haeckel. Les limites de cette adaptabilité phénotypique sont, je l'ai déjà dit, déterminées génétiquement.

La nature des modifications biochimiques associées avec le comportement d'apprentissage est encore fort mal connue. J'ai signalé l'accroissement des épines dendritiques chez le jeune rat soumis à un environnement « riche ». Mais on ne sait pratiquement rien des mécanismes intervenant chez l'adulte lors d'un apprentissage particulier. Il n'est même pas certain qu'un accroissement du nombre de synapses soit nécessaire. La modification de synapses existantes pourrait suffire, et il a été suggéré que les modifications de ce genre seraient très discrètes : des changements conformationnels au niveau de membranes synaptiques, par exemple5.

Une des manières d'accroître l'interaction structurante avec l'environnement afin de spécifier des synapses non déterminées est, nous l'avons vu, de prolonger la maturation du cerveau après la naissance. Une autre est le maintien chez l'adulte d'une plasticité fonctionnelle permettant l'adaptation d'une structure donnée à une fonction différente mais en général voisine de celle pour laquelle elle a été programmée génétiquement, donc sélectionnée, au cours de l'évolution. Il se produirait en quelque sorte un « transfert » de fonction : les résultats spectaculaires des « rééducations » obtenues après des lésions graves du système nerveux ou des organes des sens montrent que cette plasticité du cerveau de l'adulte est réelle, bien qu'elle soit limitée et inférieure à celle du sujet jeune.

Cette capacité à apprendre, cette plasticité fonctionnelle confèrent à l'homme sa valeur sélective exceptionnelle. Elles lui permettent de tirer profit, en s'y adaptant très rapidement, de l'environnement culturel et social qui de son côté évolue et progresse avec une vitesse beaucoup plus grande que ses structures génétiques. Il est alors légitime de se demander si, compte tenu de ce progrès accéléré, les limites de l'adaptabilité du cerveau humain fixées par l'hérédité ne se révéleront pas dans quelques années insuffisantes. En fait, il n'est pas impensable que l'homme lui-même compense cette dysharmonie et « élargisse » artificiellement ces limites : par exemple, en enrichissant l'environnement de l'enfant ou en contrôlant l'expression des gènes, peut-être au niveau de certains relais hormonaux. On sait déjà l'importance des hormones sexuelles6 ou thyroïdiennes7 dans l'établissement de certains comportements et dans la différenciation d'importantes structures cérébrales. Pourquoi ne pas imaginer qu'à l'aide d'effecteurs chimiques bien choisis et d'un environnement adéquat on obtienne prochainement ne serait-ce qu'un doublement du nombre des épines dendritiques du cortex de l'homme ?
1 Le film de François Truffaut, L'Enfant sauvage , pose le problème avec acuité. Voir le livre de L. Masson, Les E nfants sauvages , 10/18.

2 J.Z. Young, A M odel of the ß/IIßrain , Oxford University Press, 1964.

3 K. Lorenz, L' A gression , Flammarion, 1969.

4 A. Weismann, Essais sur l'hérédité et la sélection naturelle , Paris, 1968.

5 J.-P. Changeux et J. Thiéry, in « Regulatory functions of biological membranes », Jarnefelt éd., 1968.

6 S. Levine et R. Mullins, Science , 1585 , 1966.

7 J. Legrand, Arch. Anat. Micr ., 56 , 205, 1967.
SOMMES-NOUS PILOTÉS PAR NOS GÈNES ?
Septembre 1999. Des chercheurs de l'université de Princeton créent des souris génétiquement modifiées « plus intelligentes » : possédant davantage de récepteurs d'un type particulier, elles dépassent leurs congénères dans la plupart des tests d'apprentissage... Trente ans plus tôt, J.-P. Changeux craignait que l'espèce humaine ne butte rapidement sur les limites héréditaires de l'adaptabilité de son cerveau et proposait l'utilisation d' « effecteurs chimiques bien choisis » pour franchir ces frontières biologiques. Son projet serait-il devenu réalisable ? Les progrès de la biologie permettraient-ils d'envisager un « dopage génétique » ? Entre-temps, le neurobiologiste est devenu président du Comité consultatif national d'éthique, et ne poserait probablement pas le problème dans les mêmes termes... Quant au débat entre inné et acquis, malgré des développements considérables, la génétique moderne n'est pas parvenue à clarifier une discussion toujours passionnée. O.B.
SAVOIR
A lire :

-Ramón y Cajal, Histologie du système nerveux de l'homme et des vertébrés, Madrid, 1909.

-J.-P. Changeux, L'Homme neuronal, Fayard, 1983.

 

 DOCUMENT       larecherche.fr       LIEN

Une protéine à l'origine des synapses

14/07/2016

Une protéine à l'origine des synapses ?


Louise Blottière dans mensuel 358 
Fruit d'une recherche systématique couronnée d'un brin de chance, une pro- téine récemment découverte pourrait apporter un éclairage décisif sur la façon dont se forment les synapses.
A quoi serviraient les neurones si les synapses n'existaient pas ? A rien ! La synapse, c'est cette zone de contact, spécialisée dans la transmission du message nerveux, qu'instaurent les neurones entre eux ou avec les cellules musculaires. Sans elle, aucune information sensorielle, aucun ordre moteur ne pourraient être transmis. C'est peu dire que nombre d'équipes travaillent à élucider non seulement son fonctionnement, mais aussi la façon dont cette synapse se forme. Thomas Südhof et son équipe du Howard Hughes Medical Institute, à Dallas au Texas, viennent d'ajouter un élément peut-être décisif à ce second versant du dossier synapse : une protéine nommée SynCAM [1].

Tout commence il y a dix ans. En 1992, Thomas Südhof identifie une famille de protéines neuro- nales, les neurexines, qui vont constituer l'un des axes de recherche principaux de son laboratoire [2]. Au fil des ans, il apparaît que ces molécules sont impliquées dans le mécanisme d'adhésion qui prévaut au niveau des synapses. Elles interviennent aussi dans le fonctionnement de ces dernières, mais pas dans leur formation à proprement parler. En revanche, d'autres équipes travaillant avec des invertébrés - l'inévitable mouche drosophile mais aussi un petit mollusque, l'aplysie - mettent en évidence deux protéines impliquées dans la formation et le maintien des synapses. Des protéines dont la partie extracellu- laire présente une structure extrêmement caractéristique. Du coup, Thomas Südhof et ses collaborateurs parient sur la conservation, au cours de l'évolution, de la structure en question. Ils entreprennent alors sa recherche systématique chez les protéines de vertébrés, sans pour autant délaisser les neurexines. Leur deuxième critère de recherche impose de ne retenir que les protéines dont l'extrémité intracellulaire serait, du fait de sa structure, susceptible d'agir comme celle des neurexines. Et c'est suivant ces deux critères qu'en parcourant les banques de données des protéines de vertébrés, les chercheurs repèrent SynCAM. « Comme souvent, la chance a joué, s'excuse presque Thomas Südhof. Quand nous avons identifié SynCAM, puis réalisé que son extrémité intracellulaire était homologue de celle des neurexines, nous avons été intrigués et avons commencé à la tester. » D'abord chez l'animal - le rat en l'occurrence -, puis plus finement sur des cellules en culture. Résultat : indétectable chez le rat nouveau-né, SynCAM est progressivement exprimée au cours des trois semaines suivant la naissance. Un premier résultat encourageant, puisque c'est précisément durant ce laps de temps que se forment les synapses chez les rongeurs. De plus, elle est bien localisée au niveau de ces dernières - et des deux côtés, dans chacun des deux neurones impliqués. Enfin, comme l'ont démontré les chercheurs en augmentant ou diminuant la quantité de SynCAM dans des neurones en culture, elle joue visiblement un rôle fonctionnel dans la formation des synapses. C'est là sa particularité par rapport aux deux autres systèmes synaptiques d'adhésion connus. Sans oublier ce que Thomas Südhof qualifie de vraiment surprenant : une cellule « banale », absolument pas neuronale, peut établir une synapse avec un neurone voisin quand on la manipule de façon qu'elle exprime SynCAM. Une synapse qui plus est fonctionnelle !

Certes, « il s'avérera peut-être que SynCAM n'est pas "universelle", mais spécifique d'un seul type de synapse », commente Geneviève Rougon, directrice du Laboratoire de neurogenèse et morphogenèse dans le développement et chez l'adulte, à Marseille. Mais quoi qu'il en soit, « ces travaux constituent une étape cruciale dans l'élucidation du processus de formation des synapses, et peut-être aussi, plus largement, pour la compréhension de la plasticité neuronale », estime-t-elle.
[1] T. Biederer et al., Science, 297, 1525, 2002.

[2] Y.A. Ushkaryov et al., Science, 257, 50, 1992.

 

 DOCUMENT       larecherche.fr       LIEN

Amarna la cité perdue d’Akhénaton en 3D

13/07/2016

Amarna : la cité perdue d’Akhénaton en 3D
Bernadette Arnaud
Voir tous ses articles
Publié le 19-04-2016 à 17h02

L'imagerie en relief pour mieux comprendre une révolution religieuse dans l’Egypte antique ? C’est le pari réussi du Laboratoire Archéovision avec Amarna 3D

EXPOSITION. Les technologies de la 3D, utilisées pour mieux comprendre une révolution religieuse dans l’Egypte antique ? C’est le pari réussi du laboratoire Archéovision avec Amarna 3D, la cité bâtie par le célèbre pharaon Akhénaton. Une exposition visible jusqu’au 29 avril 2016, dans le hall du Conseil régional d’Aquitaine, à Bordeaux. Amenhotep IV, pharaon du Nouvel Empire plus connu sous le nom d’Akhénaton, est célèbre pour le cataclysme qu’il a provoqué en Egypte en imposant le culte unique d’Aton, le disque solaire, en place de celui d’Amon. En l’an 5 de son règne, il fit alors bâtir une nouvelle cité à Tell el-Amarna, en plein désert, à 300 km de la capitale thébaine. Mais dix ans à peine après leur création, à la mort du souverain, temples, palais et bâtiments administratifs sortis du sable furent totalement abandonnés. Seules quelques pierres subsistèrent, sans que les chercheurs en comprennent réellement l’agencement et la forme.

C’est désormais chose faite grâce au laboratoire Archéovision, une unité CNRS adossée aux universités de Bordeaux et Bordeaux Montaigne. « L’idée est de faire comprendre au public, grâce à la technologie 3D, ce qu’a été la genèse du profond bouleversement qu’a connu la société égyptienne sous le règne de ce pharaon monothéiste », explique Robert Vergnieux, ancien directeur du laboratoire Archéovision.

En travaillant entre le site de Karnak – où résidait initialement le souverain (voir photo ci-contre) - et celui d’Amarna, les égyptologues ont ainsi pu comprendre les nouvelles «normes architecturales » que celui-ci a imposées aux bâtiments de sa nouvelle capitale. C’est donc à la reconstitution d’un véritable puzzle que les chercheurs d’Archéovision se sont livrés à partir de données accumulées au cours des fouilles archéologiques menées depuis la fin du 19e siècle. « La ville d’Amarna n’a pas été réoccupée après sa destruction, et malgré son démontage, et la démolition de ses murs de calcaire par les chaufourniers venus faire de la chaux dès l’Antiquité, le plan complet d’Amarna est toujours visible au sol sur Google Earth ! », explique Robert Vergnieux.

Les archéologues disposaient ainsi des fondations des édifices, de l’organisation spatiale de la cité et de ses limites ainsi que de certaines représentations architecturales retrouvées reproduites sur les parois des tombes royales qui y avaient été creusées. Ces informations ont été complétées par les innombrables scènes et décors ornant les murs de grès des temples de Karnak.

Résultat : une vidéo permettant aux spectateurs contemporains de cheminer entre temples et jardins. « Toutes les nouveautés d’Amarna ont été pensées à Karnak, là où Akhenaton a modifié l’équilibre de la société égyptienne avec un nouveau dispositif dans sa relation au divin», poursuit l’égyptologue. Ainsi, par exemple, les temples d’Amarna n’avaient pas de toit pour être directement inondés par les rayons divins d’Aton et faciliter ainsi le dialogue avec le disque solaire. A la mort d’Akhénaton, son fils Toutankhamon devenu roi, abandonnera la cité de son père pour revenir à Thèbes, l’ancienne capitale.

DOCUMENT sciencesetavenir.fr LIEN

NOTRE CERVEAU ...CAPACITÉS DE STOCKAGE ...

08/07/2016

 Notre cerveau aurait une capacité de stockage proche de celle du Web !
Lise LouméPar Lise Loumé
Voir tous ses articles
Publié le 25-01-2016 à 17h45

Le cerveau humain aurait des capacités 10 fois supérieures à celles supposées par les scientifiques jusqu'à présent, révèlent des chercheurs américains.
Nos souvenirs et nos pensées dépendent de l’activité chimique et électrique de notre cerveau. © Salk InstituteNos souvenirs et nos pensées dépendent de l’activité chimique et électrique de notre cerveau. © Salk Institute

 

Notre cerveau est-il comparable à Internet ?
"La méditation déstructure et transforme le rapport au temps"
"Les Big data vont révolutionner nos vies, notre travail et notre pensée"
"Ce résultat a l'effet d'une véritable bombe dans le domaine des neurosciences", annonce fièrement dans un communiqué Terry Sejnowski, neuroscientifique du Salk Institute à La Jolla, en Californie (États-Unis). Avec son équipe, il a mesuré la capacité de stockage du cerveau, et surprise : celle-ci est 10 fois supérieure aux estimations précédentes ! "L'équivalent d'au moins 1 pétaoctet (10 puissance 15), soit une capacité de grandeur proche de celle du World Wide Web", résume-t-il (une estimation a minima basée sur l'étude d'une petite zone du cerveau qu'il faudrait toutefois réévaluer nettement pour qu'elle soit réellement comparable au Web : même si la capacité de stockage de ce dernier est impossible à estimer, les 4 géants que sont Google, Facebook, Amazon et Microsoft stockeraient à eux seuls 1.200 pétaoctets de données...). Cette étude lève également le voile sur un mystère du cerveau. "Nous avons découvert la clé permettant de comprendre comment les neurones de l'hippocampe fonctionnent à pleine puissance en utilisant peu d'énergie, mais à pleine puissance", se réjouit le chercheur du Salk Institute, dont les travaux sont publiés dans la revue eLife. Explications.


Une région du cerveau modélisée en 3D

Grâce à l'analyse de tissus cérébraux de rats, l'équipe de recherche a reproduit en 3D une petite partie de l'hippocampe, région jouant un rôle fondamental dans la mémoire. Une infime partie même, puisque la zone reconstituée fait à peine la taille d'un globule rouge, soit quelques micromètres. Toutefois, reconstituer l'ensemble des neurones, synapses (voir encadré ci-dessous) et cellules gliales (jouant un rôle de soutien et de protection du tissu nerveux) de cette zone s'est avéré laborieux. "Nous avons été quelque peu déconcertés par la complexité et la diversité des synapses", commente Kristen Harris, qui a pris part à ces travaux.

SYNAPSES. Nos pensées et nos souvenirs sont gérés par l’activité chimique et électrique de notre cerveau. Ces activités résident principalement dans les connexions entre les neurones : les synapses. Chaque neurone peut avoir des milliers de synapses, le connectant à de milliers d'autres cellules.

Cette reconstitution 3D (à découvrir dans la vidéo ci-dessous) a permis aux chercheurs de remarquer une activité inhabituelle pour 10 % des connexions synaptiques : un seul axone ("tête" du neurone) formé de deux synapses touche un seul dendrite ("queue" du neurone) d'un deuxième neurone, et non deux dendrites, ce qui signifie qu'un neurone envoie un double message à un deuxième neurone. Afin de mesurer la différence de taille entre cette paire de synapses utilisées par le neurone pour envoyer son double message, les chercheurs ont poussé la reconstitution des connectivités neuronales à un niveau nanomoléculaire, à l'aide d'une microscopie de pointe et d'algorithmes de calculs poussés. Et là, surprise : alors que les synapses sont habituellement classées en 3 catégories (petites, moyennes et grandes), les chercheurs ont découvert des tailles intermédiaires. "Nous avons été surpris de constater que la différence dans les tailles des paires de synapses étaient très petites, environ 8 % de différence de taille seulement", explique Tom Bartol, co-auteur de l'étude. "Personne n'imaginait une si petite différence." En fait, il n'existe pas 3 catégories de synapses, mais 26 selon ces travaux ! 

Découvrez la reconstitution 3D :

Un grand stockage en consommant peu d'énergie

L'intérêt de cette découverte est qu'elle permet de mesurer le nombre d'informations pouvant être stockées dans les connexions synaptiques. "En langage informatique, 26 tailles de synapses correspondent à 4,7 bits d'information, précise Tom Bartol. Or, auparavant, nous pensions que le cerveau n’était capable que de stocker l’équivalent d'un ou deux bits de mémoire de courte et longue durée dans l'hippocampe." De plus, un cerveau adulte génère une puissance continue d'environ 20 watts (l’équivalent d’une ampoule basse consommation), ce qui signifie qu’il peut stocker des informations précises avec peu d’énergie. 

Enfin, les calculs des chercheurs suggèrent que les synapses changent de taille et de capacité en fonction des transmissions neuronales. La réception de 1.500 transmissions réduit la taille des synapses, ce qui prend une vingtaine de minutes, tandis que quelques centaines ont tendance à les agrandir, ce qui prend une à deux minutes. "Cela signifie que toutes les 2 à 20 minutes, vos synapses grandissent ou rétrécissent. Elles s'adaptent en fonction des signaux reçus", résume Tom Bartol. Pour les chercheurs, leurs travaux pourront contribuer à développer des ordinateurs plus efficaces et peu énergivores. "Derrière le chaos apparent du cerveau, il y a une véritable précision quant à la taille et la forme des synapses qui nous avait toujours échappé", conclut Terry Sejnowski.

 

DOCUMENT        sciencesetavenir.fr      LIEN

Comment le cerveau élabore-t-il la conscience

08/07/2016

Comment le cerveau élabore-t-il la conscience ?
Hugo JalinièrePar Hugo Jalinière
Voir tous ses articles
Publié le 13-04-2016 à 17h33

Le fait d'être conscient procède-t-il d'un phénomène cérébral continu ou discontinu ? Un vaste débat en neurosciences auquel des chercheurs proposent de substituer une troisième voie.
Image d'un cerveau humain dévoilant les principales voies neuronales qui connectent différentes parties du système nerveux central entre elles. ©Alfred Anwander/Max Planck Institute for Human Cognitive and Brain SciencesImage d'un cerveau humain dévoilant les principales voies neuronales qui connectent différentes parties du système nerveux central entre elles. ©Alfred Anwander/Max Planck Institute for Human Cognitive and Brain Sciences

 

400 millisecondes, c'est le temps qu'il faut à votre cerveau pour transformer un stimulus en une perception consciente. Telle est la conclusion d'une étude conduite par l'Ecole polytechnique fédérale de Lausanne et publiée le 12 avril 2016 dans la revue Plos Biology. L'objet de ces recherches était d'étudier la façon dont on prend conscience d'une information et de tenter de trancher un vaste débat : la conscience procède-t-elle de façon continue ? Ou bien, à la façon d'un cinématographe, par images se succédant très rapidement les unes aux autres et donnant ainsi l'impression d'un flux continu ?

Intuitivement, le fait d'être conscient se caractérise par un état continu de sensations diverses - sons, images, odeurs, mouvements... - traduites simultanément en perceptions conscientes. Sauf que lorsqu'on regarde de plus près le fonctionnement du cerveau, les choses ne sont pas si simples. Pour tenter d'y voir plus clair, le Pr Michael Herzog propose ainsi un nouveau "cadre conceptuel" fondé sur "des données d'expériences psychologiques et comportementales déjà publiées, qui visaient à déterminer si la conscience est continue ou discontinue", notamment par observation de l'activité cérébrale explique l'EPFL dans un communiqué. 

Un processus en 2 phases

En collaboration avec Frank Scharnowski de l'Université de Zurich, les chercheurs proposent un modèle en deux phases pour expliquer comment la conscience procède. Face à un stimulus sensoriel, le cerveau commence par analyser de façon inconsciente les détails de l'objet de la sensation (couleur, forme...). Les chercheurs décrivent une sorte de machinerie inconsciente qui ne cesse jamais de traiter les informations sensorielles. Le modèle suggère également que cette phase exclut la perception du temps.

Une fois ce traitement effectué, le cerveau va en quelque sorte livrer son bilan en le rendant conscient. C'est la deuxième phase : "Le cerveau rend simultanément conscients tous les éléments. Cela forme l'image finale que le cerveau présente à notre conscience. En d'autre termes, après ce traitement inconscient nous sommes finalement conscients du stimulus", expliquent les chercheurs. Un processus qui pourrait durer  jusqu'à 400 millisecondes donc. Un laps de temps qui paraît ridiculement petit mais qui, "d'un point de vue physiologique, constitue un décalage considérable".

La perception du temps, le chaînon manquant

"Le cerveau veut vous donner l'information la meilleure et la plus claire possible, et cela exige un certain temps, explique Michael Herzog. Il n'y a aucun avantage à vous faire connaître son traitement inconscient, parce que cela serait extrêmement déconcertant", poursuit le chercheur.

Si ce modèle reste hypothétique et devra être mis à l'épreuve dans une étude originale, il a le mérite de voir au-delà du traditionnel débat entre conscience continue ou discontinue. En effet, le modèle ne dit pas que la conscience est interrompue par ces phases de traitement inconscient. L'autre intérêt est d'ouvrir un nouveau champ d'interrogations sur "la façon dont le cerveau traite le temps et le met en relation avec notre perception du monde". La perception du temps comme chaînon manquant de la conscience en quelque sorte.

 

 DOCUMENT        sciencesetavenir.fr      LIEN

SUR LES TRACES DE LA MÉMOIRE ...

25/06/2016

LA MÉMOIRE ET L'OUBLI
Sur les traces de la mémoire


la mémoire et l'oubli - par Rémy Versace, Brigitte Nevers dans mensuel n°344 daté juillet 2001 à la page 92 (2444 mots)
Plutôt qu'une juxtaposition de modules et de mécanismes spécialisés, notre mémoire serait la réunion des traces laissées dans notre cerveau par chacune de nos expériences. La réactivation de ces traces lors de nos interactions avec l'environnement ferait émerger souvenirs et connaissances, reconstitués chaque fois.

Lorsque nous entrons une information quelconque dans un ordinateur, par l'intermédiaire du clavier ou d'un autre périphérique, nous nous attendons à ce que la « réponse » fournie par le système informatique soit toujours la même, quelles que soient les circonstances et quelle que soit notre humeur. C'est heureusement généralement le cas.

Au contraire, lorsque nous sommes nous-mêmes confrontés à un environnement donné, nous ne nous comportons pas toujours de la même façon. Nos comportements dépendent à la fois des propriétés objectives de l'environnement et de « l'état » de notre système nerveux au moment où il est stimulé. Or, cet état dépend lui-même de nos expériences antérieures.

Souvenir facilitant. La vitesse de lecture d'un mot dépend de notre familiarité avec celui-ci, de sa connotation émotionnelle et de notre état affectif, ainsi que des mots qui précèdent ou, plus largement, des autres « informations » rencontrées au préalable. Par exemple, si un enfant vous demande quel est le cri du kangourou, vous serez plus rapide, quelques minutes plus tard, pour identifier ce même mot, ou le mot « Australie », sur le livre que vous êtes en train de lire, ou pour les retrouver sur une grille de mots croisés.

La diversité des connaissances et des comportements qui peuvent émerger, selon les circonstances, dans une situation donnée et pour un même individu, relève d'une faculté fondamentale : celle de conserver en mémoire les nombreuses expériences ou situations auxquelles nous sommes confrontés et de les réutiliser de façon appropriée. Depuis les premières véritables investigations expérimentales sur la mémoire, débutées vers 1885 par le psychologue allemand Hermann Ebbinghaus, mais surtout à partir du milieu du XXe siècle avec la naissance de la psychologie cognitive, les scientifiques tentent de décrire comment et sous quelle forme ces expériences sont conservées en mémoire.

Une première approche, développée surtout à partir des années 19701, suppose l'existence de multiples systèmes de mémoire prenant en charge la conservation et le traitement des multiples formes de connaissances : mémoires sensorielles qui stockent temporairement les connaissances perceptives selon la modalité de perception on parle de mémoire visuelle, auditive, olfactive... ; système de représentations perceptives qui stocke à long terme les connaissances perceptives mais d'une manière indépendante des modalités de perception connaissances amodales ; mémoire procédurale, qui conserve les savoir-faire ; mémoire sémantique, qui stocke les connaissances conceptuelles ; mémoire épisodique, qui stocke les souvenirs.

Cette conception multisystème a plusieurs défauts importants. D'abord, elle n'est pas parcimonieuse : elle suppose l'existence pour chaque type de connaissance d'un système de mémoire particulier, autonome, avec des règles et des mécanismes spécifiques. Cette diversité des organisations proposées pour les différents systèmes rend aussi particulièrement difficile d'expliquer comment toutes les caractéristiques constitutives d'une expérience sont rassemblées pour former des connaissances cohérentes qui émergent de l'environnement. Par exemple, pour saisir un objet, il faut non seulement repérer sa forme pour savoir comment et par où le saisir et l'identifier pour avoir une idée de son poids, de sa fonction ou de son éventuel caractère dangereux, mais aussi le situer, dans l'espace et par rapport à notre position dans cet espace. Intégrer ces composantes, c'est reconstruire l'objet dans son environnement, ce qui est indispensable pour l'utiliser à bon escient.

Modules liés. En outre, ces modèles multisystèmes supposent l'existence indépendante d'un système de mémoire sémantique, permettant un accès conscient aux connaissances conceptuelles, et d'un système de mémoire épisodique, qui conserverait les expériences passées propres à l'individu, ses souvenirs. Comment alors rendre compte, à partir de ces deux systèmes indépendants, des liens entre les souvenirs, connaissances apparemment spécifiques à des expériences individuelles, et les connaissances conceptuelles ou abstractives, semble-t-il, détachées de ces expériences ? La mémoire épisodique n'est en effet pas une entité isolée de la mémoire sémantique, et notre expérience personnelle semble bien lier à l'élaboration des concepts et réciproquement : je sais par exemple que Johannesburg est une ville d'Afrique du Sud, parce j'y suis allé en vacances l'année dernière. Une connaissance épisodique semble pouvoir devenir sémantique par abstraction du contexte spatio-temporel dans lequel elle a été apprise. Mais il s'agit plus d'un changement d'état, c'est- à-dire d'un détachement progressif par rapport à des expériences personnelles, que d'un changement réel de système.

Système unique. Pour résoudre ces difficultés, une autre approche de la mémoire, désignée sous le terme de modèles à traces multiples2, a été proposée à la fin des années 1970. Selon ces modèles, il n'existe qu'un seul type de mémoire, à long terme, conservant une trace de toutes les expériences auxquelles l'individu est confronté. L'introduction de la notion de traces dans les modèles de la mémoire s'est faite en parallèle avec le passage d'une conception multisystème à une conception à système unique.

A un niveau neurobiologique, la notion de trace correspondrait à une modification structurelle des voies nerveuses, c'est-à-dire au marquage de réseaux de neurones, par l'intermédiaire d'une modification des capacités du réseau à transmettre l'influx nerveux en réponse à un signal externe. Sans aller plus avant dans ces fondements biologiques voir l'article de Serge Laroche, dans ce numéro, intéressons-nous plutôt à l'organisation et au contenu des traces, et donc des connaissances conservées par leur intermédiaire, ainsi qu'aux mécanismes de construction et de « réutilisation » de ces traces. En dépit des divergences entre chercheurs, la plupart d'entre eux s'accordent pour admettre deux propriétés des traces, leur multidimensionnalité et leur caractère épisodique.

Sensorielles et motrices. Une trace est multidimensionnelle, en ce sens qu'elle reflète les multiples propriétés ou composantes de l'expérience. Elle est épisodique car elle reflète totalement l'épisode ou l'expérience dans laquelle elle s'est constituée, y compris l'existence même de cette expérience.

De nombreux psychologues3 ont tenté de définir la nature des propriétés codées au niveau des traces. Il s'agirait essentiellement de dimensions sensorielles et motrices : des systèmes neuronaux communs, de type sensori-moteur, seraient activés lorsque nous sommes réellement confrontés à des objets, lorsque nous nous imaginons être en présence de ces objets, ou bien lorsque nous recherchons des connaissances conceptuelles à partir de ces mêmes objets.

Ainsi, A. Martin et ses collègues de l'Institut américain de la santé mentale à Bethesda, dans le Maryland4, ont montré, grâce à la tomographie par émission de positrons, que la production verbale de mots de couleurs et de mots désignant des actions active des zones cérébrales impliquées dans la perception des couleurs pour les premiers et dans la perception des mouvements pour les seconds. La même équipe a aussi montré que l'identification de dessins d'animaux ou d'outils est associée notamment à des activations des aires impliquées dans la perception visuelle précoce pour les premiers et dans le cortex prémoteur pour les seconds.

L.W. Barsalou et ses collègues, de l'université Emory à Atlanta, ont par ailleurs demandé à des sujets de vérifier des propriétés associées à des fruits ou à des animaux évoqués simplement par leurs noms. Ils ont constaté que tout se passe comme si l'individu simulait mentalement la présence de l'objet et recherchait en mémoire les propriétés associées à cet objet, exactement comme il pourrait le faire dans son environnement : les réponses sont en effet plus rapides pour des propriétés visibles par exemple, la forme d'une pomme qu'invisibles avoir des pépins, ou bien pour des propriétés de grande taille que pour des propriétés de petite taille.

Les actions effectuées sur les objets jouent pour certains psychologues un rôle tellement important au niveau des traces conservées en mémoire à long terme, qu'ils ont défendu l'idée d'une mémoire à long terme exclusivement fondée sur les savoir-faire.

C'est le cas notamment de P. Kolers5 qui, en 1973, avait proposé l'hypothèse selon laquelle l'efficacité de la récupération en mémoire dépendrait de la correspondance ou du recouvrement entre les traitements mis en jeu lors de la mémorisation et ceux qui sont impliqués lors de la récupération. Il a par exemple entraîné des sujets dans une activité de lecture de textes écrits normalement ou inversés lecture de droite à gauche et a évalué l'apprentissage de ce nouveau savoir-faire un an plus tard : les textes qui avaient déjà été présentés étaient lus plus rapidement que des textes nouveaux, à condition qu'ils soient présentés dans le même sens. Un contrôle a aussi montré que les sujets ne différenciaient pas consciemment les textes anciens des nouveaux.

Ainsi, il semble bien qu'une trace mnésique conserve à la fois les aspects sensoriels des informations traitées et les aspects moteurs des traitements effectués sur ces informations. Toutefois, définir les traces uniquement par leurs composantes sensori-motrices n'est pas suffisant. Une autre composante, très souvent négligée, est certainement codée au sein des tra-ces : l'émotion. Chaque expérience est en effet toujours associée à des états du corps plus ou moins agréables ou désagréables, et le système mnésique doit en garder une trace.

De plus en plus de travaux en psychologie montrent que l'émotion intervient automatiquement et rapidement dans l'émergence de toute forme de connaissances. L'émotion émergerait ainsi avant toute identification consciente de l'objet inducteur. Par exemple R.D. Lane et ses collègues de l'université d'Arizona6 ont remarqué que le débit sanguin cérébral était plus important dans la zone cérébrale de l'amygdale voir l'article de Martine Meunier dans ce numéro pour les images négatives que pour les images neutres et positives, et que cette asymétrie apparaît même en l'absence d'identification consciente des stimuli. Cela a été confirmé par des recherches comportementales dans lesquelles les sujets devaient juger du caractère agréable ou désagréable d'images : cela semble possible avant l'identification de l'image elle-même.

L'émotion jouerait donc un rôle essentiel au niveau de l'élaboration et de la réactivation des traces en mémoire. Tout le monde a eu l'occasion de constater que l'on se souvient beaucoup mieux d'une expérience passée si elle est associée à un état affectif intense, et cela a été vérifié expérimentalement. Mais quel est le rôle exact de l'émotion dans ce phénomène ? Il ne semble pas que le statut de l'émotion au sein de la trace soit équivalent à celui des autres composantes sensori-motrices. Elle aurait une fonction essentielle au niveau de l'intégration des traces.

En effet, puisque la trace est multidimensionnelle, elle résulte d'une synchronisation d'activations au sein des différentes structures codant les multiples propriétés de l'expérience. Or, cette intégration des différentes dimensions de la trace nécessite l'intervention de structures neuronales spécifiques, qui sont aussi très souvent évoquées à propos de l'émotion7. C'est le cas notamment du cortex préfrontal et de l'amygdale. La région de l'hippocampe voir l'article de Poucet dans ce numéro semble également être impliquée dans l'établissement et le stockage à long terme d'un lien entre les diverses caractéristiques sensorielles8.

Catégorisation émotionnelle. En poussant à l'extrême ce rôle de l'émotion, Paula Niedenthal, de l'université de Clermont-Ferrand9, défend même l'idée d'une catégorisation des objets reposant essentiellement sur l'émotion suscitée par ceux-ci auprès de l'individu. Nous classerions ensemble, ou considérerions comme équivalents, des objets qui évoquent le même type de réponse émotionnelle.

Pourrait-on décrire plus précisément la constitution et la réactivation des traces ? La confrontation avec un environnement se traduit automatiquement et immédiatement par une activation de traces antérieures : la nouvelle trace qui en émerge et qui se construit en mémoire est donc une sorte de schématisation, ou d'abstraction, de la situation. Une trace n'est pas une copie conforme d'une situation. Définir la trace comme l'émergence d'un état confère un caractère extrêmement dynamique à la mémoire et aux connaissances qui vont progressivement émerger.

Traits instantanés. Que se passe-t-il lorsque nous sommes par exemple confrontés à une scène visuelle ? En quelques dizaines de millisecondes, nous détectons la présence de traits sensoriels, par exemple des couleurs, des formes simples, des orientations ou des déplacements. Mais dans cette première phase, nous ne pouvons pas dire que telle forme avait telle couleur ou telle orientation : nous ne pouvons pas intégrer les différents composants sensoriels de la scène visuelle. Les connaissances sont ici encore très morcelées.

Le phénomène de mémoire sensorielle correspondrait donc simplement à cette première activation de niveau sensoriel, mais déjà en mémoire à long terme. Ainsi, au contraire des approches multisystèmes, les modèles à traces multiples de la mémoire ne séparent pas les mémoires sensorielles de la mémoire à long terme, ni les mécanismes perceptifs des mécanismes mnésiques intervenant ultérieurement. Les traits de niveau sensoriel c'est- à-dire, les traits activés en premier, spécifiques aux propriétés élémentaires des objets impliqués lors de la perception des objets ne sont pas invariants. Ils dépendent au contraire de nos expériences antérieures et constituent des éléments à part entière de traces mnésiques.

Les premières activations de niveau sensoriel se propagent très rapidement vers d'autres composantes en rapport avec les autres propriétés de l'environnement, dont les composantes motrices et affectives. Des intégrations de plus en plus poussées de ces propriétés permettent un accès à des connaissances de plus en plus élaborées et de plus en plus unifiées en rapport avec l'environnement présent. Par exemple, lorsque nous examinons un visage, sa forme globale, des indices permettant de déterminer s'il s'agit d'un homme ou d'une femme, des traits de l'expression sont détectés et intégrés en un ensemble cohérent, ce qui permet éventuellement de reconnaître la personne.

On ne nomme généralement « connaissance » que ces connaissances hautement intégrées, de niveau symbolique ou sémantique. Mais selon notre description ces connaissances correspondent à des états d'activation du système mnésique et sont toujours créées ou recréées dans le cadre d'interactions avec l'environnement. Cette notion d'état émergeant d'une expérience est centrale dans cette manière de concevoir la mémoire et traduit l'abandon de l'idée d'une mémoire « encyclopédique » contenant un stock de connaissances parfaitement définies, répertoriées et adressables à volonté en fonction des besoins, sous-jacentes aux modèles traditionnels.

Il n'existerait donc pas de différence fondamentale entre les souvenirs et les connaissances catégorielles ou symboliques, mais simplement une proximité plus ou moins grande avec un seul état antérieur. Un souvenir correspondrait à un état très proche d'un état antérieur spécifique, enregistré par une seule trace, alors qu'une connaissance catégorielle reflèterait de multiples états ou traces antérieurs.

Traces indiscernables. Dans une telle perspective, l'oubli ne correspond pas à la disparition d'une connaissance ou d'un souvenir, mais plutôt à la difficulté de discriminer une trace particulière parmi d'autres traces. Le contexte pourrait donc également permettre de rendre une trace plus spécifique et donc plus facilement réactivable. Cela expliquerait par exemple le type de situation où nous sommes incapables d'associer un nom au visage d'une personne qui nous est pourtant familier, ni même d'expliquer l'origine de cette impression de familiarité. Il suffit généralement que le contexte dans lequel nous avons l'habitude de rencontrer cette personne nous revienne à l'esprit pour qu'immédiatement, toutes les informations manquantes deviennent accessibles.

Par Rémy Versace, Brigitte Nevers

 

 DOCUMENT       larecherche.fr       LIEN

LES BIOPUCES

17/06/2016


Les biopuces à la conquête du marché


autre - dans mensuel n°318 daté mars 1999 à la page 60 (2530 mots)
La biopuce permet d'analyser en quelques heures des milliers de séquences d'ADN ou d'ARN. Grâce à elle, il est possible de repérer des mutations et de savoir immédiatement quels gènes répondent à l'action d'une molécule ou sont impliqués dans une maladie. Ses applications au diagnostic médical et aux recherches thérapeutiques suscitent l'émergence de quantité de sociétés spécialisées, surtout aux Etats-Unis.

Du fait du potentiel qu'on leur attribue pour le diagnostic biologique et en génomique, les biopuces suscitent un intérêt croissant de la part des scientifiques et des industriels. La puce à ADN, ou « DNA chip » comme on l'appelle aux Etats-Unis où elle a vu le jour il y a sept ans, est au confluent de la microélectronique, de la chimie combinatoire, de la biologie moléculaire, de l'informatique et du traitement du signal. Elle permet d'identifier en quelques heures les constituants d'un échantillon complexe renfermant de l'ADN ou de l'ARN.

Comme un VelcroÆ. Le principe de cette nouvelle technologie a été décrit à la fin des années 1980 par quatre équipes différentes, en Grande-Bretagne, en Russie et aux Etats-Unis. Il exploite un fondement de la biologie moléculaire, la réaction d'hybridation, au cours de laquelle les deux brins d'ADN qualifiés de complémentaires se lient l'un à l'autre comme les deux faces d'un VelcroÆ, les bases A adénine s'appariant avec les bases T thymine de l'autre brin, et les bases G guanine avec les base C cytosine. Et réciproquement.

Le Russe Andrei Mirzabekov et ses collègues de l'institut Engelhardt de biologie moléculaire de Moscou avaient ainsi imaginé en 1989 qu'il était possible d'identifier une séquence nucléotidique, autrement dit l'enchaînement des bases d'un fragment d'ADN, en mettant ce dernier en présence de milliers d'autres brins d'ADN de séquence connue, fixés sur un support voir l'encadré « Comment fonctionnent les biopuces p. 62 ».

Un nouveau concept était né : le séquençage par hybridation. Mais il restait à imaginer comment fabriquer et greffer sur une petite surface les milliers de fragments d'ADN oligonucléotides nécessaires. C'est ce qui fut fait deux ans plus tard, par un groupe de chercheurs travaillant dans une jeune société californienne de biotechnologie, Affymetrix, qui mit ainsi au point la première puce à ADN.

L'avancée technologique dont la GeneChip d'Affymetrix semblait porteuse n'a pas tardé à susciter des émules. D'autres équipes ont rapidement développé leurs propres produits en s'appuyant sur différentes méthodes de fabrication et d'adressage des brins d'ADN sur des supports variés. Elles ont donné naissance à une petite dizaine de firmes, toutes implantées en Californie, comme Synteni, rachetée par Incyte Pharmaceuticals à la fin de 1997, Hyseq, associé au fabricant d'instruments scientifiques Perkin Elmer, Molecular Dynamics, Nanogen, Protogene...

En dehors des Etats-Unis, rares sont les équipes qui développent des biopuces. Récemment, l'institut moscovite s'est associé au groupe américain Motorola, au Argonne National Laboratory Illinois et à l'américain Packard Instrument. Quant au centre allemand de recherche sur le cancer de Heidelberg, il collabore avec l'université de Copenhague Danemark sur un procédé dans lequel des acides nucléiques peptidiques PNA remplacent l'ADN dans les sondes fixées sur la puce. Ces PNA sont aussi constitués d'un enchaînement de bases nucléotidiques mais leur squelette, qui mime celui de l'ADN, est plus stable car il repose sur des liens peptidiques et non sur les assemblages sucres-phosphates des acides nucléiques. En Grande-Bretagne, Edwin Southern du département de biochimie d'Oxford, l'un des tous premiers à avoir déposé, en 1988, un brevet portant sur la synthèse d'oligonucléotides sur un support, a récemment créé la société Oxford Gene Technology pour exploiter un nouveau brevet portant sur un procédé de fixation de petits fragments d'ADN sur une puce.

En France, une seule société, CIS bio International Saclay, conçoit des puces à ADN en collaboration avec le laboratoire d'électronique, de technologie et d'instrumentation Léti et le département de recherche fondamentale de la matière condensée DRFMC du CEA à Grenoble. Le secteur reste, on le voit, dominé par son pionnier, Affymetrix.

Une puce pour le VIH. Conçue en 1991, sa puce prototype devait déboucher cinq ans plus tard sur la première puce commercialisée. De 12,8 mm de côté, elle a été développée pour l'analyse de mutations du virus du sida VIH.

La puce VIH permet de rechercher, parmi une portion restreinte du millier de paires de bases du génome du VIH-1, les mutations qui confèrent au virus une résistance vis-à-vis des inhibiteurs de la transcriptase inverse RT* et des antiprotéases P*. Elle est utilisée en routine depuis le début 1997 par un gros laboratoire prestataire de services en biologie clinique basé en Caroline du Nord LabCorp, Research Triangle Park et donne un résultat en cinq heures .

En France, la société bioMérieux, spécialiste du diagnostic biologique, a conclu un accord exclusif avec Affymetrix pour développer des puces de détection bactérienne et d'analyse de résistance aux antibiotiques. Chez bioMérieux, le programme de recherche sur les puces à ADN est orienté vers une puce capable d'identifier en une seule étape toutes les espèces de mycobactéries connues dont le bacille de la tuberculose, pathogènes ou non pathogènes. Elle permettra à des laboratoires de recherche, des centres de référence et de grands laboratoires hospitaliers d'identifier précisément l'espèce présente dans un prélèvement pulmonaire et renseignera, par exemple en cas de Mycobacterium tuberculosis , sur la présence d'éventuelles mutations conférant une résistance à la rifampicine, antituberculeux majeur. « La puce Mycobactéries compte aujourd'hui plus de 40 000 oligonucléotides » précise Patrice Allibert, responsable projet « sondes » chez bioMérieux. « Nous disposerons d'ici deux ans de puces quatre fois plus petites [donc de 3mm, NDLR]. Les puces mycobactéries ou HIV sur lesquelles nous travaillons nous sont livrées par Affymetrix, qui effectue la synthèse des oligonucléotides selon notre cahier des charges. » La première puce de bioMérieux pourrait être commercialisée d'ici à l'an 2000. A terme, la société lyonnaise envisage de développer d'autres puces pour la détection de germes pathogènes présents dans le sang et les voies respiratoires ou génitales. Ce partenariat a été étendu à la virologie pour la détection des mutations conférant au virus du sida des résistances aux antirétroviraux. Un autre domaine d'application des puces à ADN réside dans la génétique médicale. Trois puces permettent, avec une fiabilité comparable aux techniques classiques de biologie moléculaire, de détecter les mutations du gène CFT R chez les patients à risque de mucoviscidose, du gène BR CA-1 chez les femmes à risque pour le cancer du sein, ou encore de celui de la bêta-globine chez des enfants menacés de bêta-thalassémie, anémie héréditaire causée par un défaut dans la synthèse de l'hémoglobine.

Affymetrix a pour sa part développé, en collaboration avec la firme OncorMed Gaithersburg, Maryland, spécialiste des tests génétiques de cancérologie, une puce capable de détecter les mutations du gène humain p53 . Ce gène suppresseur de tumeur est en effet muté dans près de la moitié des cancers. Commercialisée depuis juillet 1997, cette puce détecte une susceptibilité génétique à certains cancers et permet de suivre l'impact des traitements de radiothérapie ou de chimiothérapie sur la tumeur chez les malades atteints. De son côté, Incyte Pharmaceuticals s'est associée avec la firme pharmaceutique SmithKline Beecham pour créer une joint-venture, diaDexus, qui développera et commercialisera des outils de diagnostic génétique.

Nouveaux gènes. La puce à ADN contribuera aussi à une compréhension plus fine du fonctionnement du génome et de sa régulation, ce que l'on appelle la génomique. Grâce aux puces à ADN, de nouveaux gènes ont ainsi été mis en évidence qui s'expriment spécifiquement dans le tissu cérébral de l'enfant, ou qui apparaissent associés à des pathologies inflammatoires rhumatismales ou intestinales. Ainsi, au fur et à mesure des pro-grès dans la compréhension des mécanismes fondamentaux associés aux grandes pathologies humaines, les biopuces devraient contribuer à l'identification des cibles thérapeutiques les plus appropriées. " Cela dit , reconnaît Pierre Casellas, directeur du service d'immunologie de Sanofi Recherche à Montpellier, l'emploi de ces outils miniaturisés génère « un nombre de données tellement important qu'il est impensable qu'on soit aujourd'hui en mesure de les interpréter dans toute leur complexité et ainsi parvenir à les intégrer dans un schéma global de fonctionnement de la cellule. C'est dire, dans le long terme, l'importance du pari de la bioinformatique pour tirer le meilleur parti de l'utilisation de cette technologie révolutionnaire. »

Pharmacogénomique. Affymetrix a développé des puces à ARN pour l'analyse quantitative des profils d'expression de 6 800 gènes humains, 6 500 gènes de -souris et 6 100 gènes de la levure. Elle élargit aujourd'hui sa gamme en proposant des puces d'analyse de l'expression de 30 000 gènes de souris et plus de 40 000 séquences d'ADN humain. Son accord signé le 12 novembre 1998, avec la société de génomique Human Genome Sciences HGS va en effet lui permettre de puiser dans les séquences génétiques issues de la base de données de HGS. De son côté, son concurrent, Synteni, commercialise des puces contenant chacune 10 000 fragments de gènes humains.

Outre l'identification de cibles pour la recherche pharmaceutique, la biopuce pourrait aussi servir à une meilleure compréhension des mécanismes d'action des médicaments. C'est le domaine de la pharmacogénomique. Depuis novembre 1997, Affymetrix propose une puce de 800 oligonucléotides permettant la détection des 18 mutations et des 10 variations polymorphismes répertoriées dans deux gènes associés à un système enzymatique cytochrome P450 qui joue un rôle essentiel dans la cinétique de dégradation par le foie de nombreux médicaments. « Nous pouvons, pour un type de cellule donné mesurer la quantité exprimée des différents ARN messagers en établissant au préalable un calibrage avec un ou plusieurs gènes dont le niveau d'expression est connu » explique Pierre Casellas, qui a passé un accord avec Affymetrix.

En montrant qu'une molécule déclenche une activité génique que l'on ne soupçonnait pas, la biopuce donne une vision élargie du potentiel thérapeutique d'un produit et permet donc parfois de s'orienter sur des pistes pharmacologiques jusqu'à présent méconnues. En même temps, c'est pour la même raison, un outil pour identifier les effets secondaires éventuels d'un produit. Elle constitue un test de toxicologie prédictive permettant parfois d'éviter de coûteux essais cliniques. Couplée à d'autres techniques, la puce à ADN autorisera aussi une détermination plus juste des doses nécessaires pour obtenir un effet pharmacologique le plus proche possible de celui observé en laboratoire.

En France, des biopuces comportant jusqu'à 10 000 sondes sont en développement chez CIS bio International et au Léti. Ces deux structures prévoient de monter, cette année, une start up pour répondre aux besoins de leurs futurs clients, qui aujourd'hui n'ont pas d'autre choix que d'acheter des biopuces aux Etats-Unis. « Des discussions ont débuté avec de grands laboratoires dans l'agroalimentaire ou des sociétés de diagnostic travaillant sur les prédispositions génétiques aux différents types de diabète ou aux diverses maladies cardio-vasculaires, dont l'hypertension artérielle. Des puces d'analyse des cytochromes P450 sont aussi à l'étude » confie Joseph Marchand, directeur scientifique de CIS bio International.

Le gotha de la pharmacie. On comprend l'engouement des groupes pharmaceutiques pour cette technologie. A côté des sociétés américaines de biotechnologie, comme Millenium ou GeneLogic, et de grands instituts de recherche Whitehead Institute/MIT, Howard Hughes Medical Institute, Affymetrix compte parmi ses clients le gotha de la pharmacie mondiale avec des groupes comme le britannique Glaxo Wellcome, le suisse Novartis, ou les américains Bristol-Myers Squibb, Merck ou Pfizer, mais aussi les français Sanofi ou Rhône-Poulenc Rorer. Outre le diagnostic médical et la pharmacie, trois secteurs industriels offrent des applications potentielles aux puces à ADN.

L'agroalimentaire d'abord. Les biopuces permettant de suivre et de quantifier tout au long d'une chaîne de production des bactéries productrices de ferments lactiques, et de détecter et de contrôler des séquences provenant d'organismes génétiquement modifiés OGM dans des générations successives de semences.

L'environnement n'est pas en reste non plus, qu'il s'agisse de l'analyse bactérienne de l'eau de consommation courante ou du contrôle qualité dans l'industrie pour détecter des agents infectieux dans l'alimentation salmonelles, Listeria, Legionella , l'air, l'eau ou la chaîne de fabrication de produits pharmaceutiques.

Signatures moléculaires. La détection d'agents utilisés pour la guerre bactériologique ou chimique peut aussi être envisagée. Il serait ainsi possible de déterminer précisément les modifications occasionnées par des agents toxiques dans l'expression de plusieurs milliers de gènes pour certains types de cellules, en particulier les lymphocytes qui contribuent au système immunitaire. La connaissance préalable de ces millions de signatures moléculaires, stockées dans des banques de données, permettrait l'identification rapide de la menace à partir de n'importe quel échantillon potentiellement contaminé par des produits chimiques mercure, dioxine, gaz sarin, etc. ou des micro-organismes pathogènes bacille du charbon, de la diphtérie....

La compétition est rude dans le petit monde des développeurs de biopuces, où chacun accuse le concurrent d'utiliser la technologie qu'il a mis au point lui-même ou de s'en inspirer trop étroitement. On assiste actuellement à une guerre des brevets qui porte sur les procédés de dépôt des sondes sur la puce et de séquençage par hybridation. La société Affymetrix a ainsi intenté un procès à Incyte Pharmaceuticals et à Synteni, et est elle-même attaquée en justice depuis fin 1997 par Hyseq sur deux de ses brevets.

Ces querelles devront forcément trouver un épilogue puisque ces sociétés, qui ont misé des millions de dollars sur un procédé, doivent pouvoir commercialiser leurs produits au niveau mondial pour rentabiliser leur investissement. Elles devront donc, sous peine de disparaître procéder à des échanges de licences sur les brevets, aucune ne possédant la totalité de ceux-ci. « Des alliances stratégiques verront le jour dans des domaines d'application où ces entreprises sont en situation de concurrence aujourd'hui » prédit Joseph Marchand CIS bio International. Sans parler des problèmes que risquent de poser le brevetage des EST* ou des fragments de gènes. L'obligation pour les fabricants de puces de verser des redevances sur de tels brevets leur ôterait tout espoir de rentabilité.

Or, l'avenir de cette technologie, dont on estime le marché potentiel immédiat à environ un milliard de dollars par an, dépend aussi de son coût. Si Affymetrix vend 100 dollars certaines de ses puces HIV, et 145 dollars celle du cytochrome P450, d'autres peuvent atteindre 850 dollars. Or il s'agit de produits à usage unique. Et il faut bien sûr ajouter le prix de l'ensemble formé par la station fluidique voir l'encadré le scanner et le logiciel de traitement des données, qui s'élève par exemple chez Affymetrix à 135 000 dollars. Mais si une société désire s'engager dans une collaboration avec Affymetrix afin que celle-ci lui développe des puces sur mesure, les tarifs peuvent atteindre plusieurs millions de dollars. Outre les revenus de licence, la société procède également à des versements additionnels auprès du fabricant de puces lors du franchissement de chaque étape du programme et au versement de royalties lorsque cela débouche sur la commercialisation d'un produit.

A CIS bio International, on estime que l'objectif est de parvenir, d'ici à trois ou quatre ans, « à un prix de quelques dizaines de francs, quel que soit le type de puces ». Ce n'est qu'une fois ce prix atteint et les problèmes financiers et juridiques résolus que les puces à ADN s'imposeront. Il reste donc du chemin à parcourir avant que à partir d'une goutte de sang obtenue par simple piqûre au bout du doigt, le malade reparte du cabinet de son médecin avec en poche un diagnostic prédictif issu d'une puce.

 

 DOCUMENT    larecherche.fr     LIEN

L'ORIGINE DE FORMES MUSICALES

10/06/2016

L'ORIGINE DES FORMES


La musique et les sons ont-ils une forme ?


l'origine des formes - dans mensuel n°305 daté janvier 1998 à la page 98 (3093 mots)
Au-delà des « formes » musicales sur lesquelles travaillent les compositeurs, les sons eux-mêmes peuvent être traduits en termes de formes. Mais les différentes façons de les représenter sont toutes imparfaites : la perception du son et de la musique, fruit de notre histoire évolutive et sujette à de fascinantes illusions, est loin de se réduire à un problème de physique.

Claude Debussy reprocha un jour à Erik Satie de ne pas se soucier assez de la forme dans ses compositions. Piqué au vif, Satie lui adressa peu après ses Trois M orceaux en forme de poire . Sous couvert de dérision, Satie pose là le problème de la forme en musique. Chacun connaît des formes musicales Ñ suite, fugue, choral, cantate, sonate, symphonie, concerto Ñ dont le choix prescrit le schéma de fabrication, la succession des parties, l'agencement global d'une oeuvre. La forme rondo se définit ainsi par le retour cyclique d'un même motif musical entre des couplets successifs. La forme sonate est plus complexe : elle s'applique en réalité au premier mouvement d'une sonate ou d'une symphonie. On la décrit souvent comme le jeu de deux thèmes qui se répondent, mais le schéma de la sonate classique fait intervenir aussi les modulations, c'est-à-dire les changements de tonalité.

La forme sonate est donc inséparable de la grammaire musicale. La musique occidentale classique possède une syntaxe tonale rigoureuse. Les sons utilisés doivent avoir une hauteur déterminée, les seules échelles de hauteur permises Ñ les gammes Ñ sont majeures ou mineures1, et certains degrés de ces gammes tonique, dominante ont un statut privilégié. Les mouvements obligés que stipule la syntaxe tonale déterminent des relations d'attraction ou de répulsion entre les hauteurs sonores, créant une véritable « gravitation » tonale. Fortement structurante du temps de Haydn, Mozart et Beethoven, cette syntaxe a été graduellement érodée par la multiplication des modulations et l'invasion des glissements chromatiques, notamment chez Chopin, Liszt et Wagner. En même temps que la syntaxe musicale, les formes ont évolué au cours de l'histoire de la musique. Suivant le style, le propos de la musique, les éléments déterminants de la forme diffèrent : l'effectif, comme pour la cantate, qui fait nécessairement intervenir des chanteurs, le procédé de composition, comme pour la fugue, fondée sur les présentations échelonnées d'un même motif, la disposition, comme la structure du menuet ou du scherzo. Mais si l'on peut définir une forme d'école par une structure prototype2, les musiciens novateurs Ñ comme Beethoven dans ses dernières oeuvres ou Liszt dans sa sonate pour piano en si mineur Ñ s'écartent souvent de ce modèle académique.

A l'époque moderne, la syntaxe tonale est affaiblie, et la forme évolue en conséquence. Chez Debussy, les accords prennent valeur de sonorité, de timbre, plutôt que de fonction tonale. Arnold Schoenberg « suspend » la gravitation tonale : conscient des problèmes que cela pose pour assurer le soutien architectonique de la « grande forme »3, il prône la variation continue, la reformulation toujours différente d'une forme de base.

Edgard Varèse refuse de réduire la forme musicale à ce qu'il appelle le schème formel : pour lui, la forme n'est pas un moule, mais plutôt la résultante des tractations musicales intervenant au cours du devenir de l'oeuvre. Ces conceptions seront poussées à l'extrême, jusqu'au bord de l'informel, avec la moment-form proposée par Karlheinz Stockhausen, où la genèse de la forme est liée au « mystère de l'instant »4.

Une autre manière d'atténuer la tyrannie des schèmes formels est apparue au cours des années 1950 dans la musique occidentale, en réaction sans doute aux prescriptions « totalitaires » de la syntaxe sérielle de Schoenberg et Boulez : elle a consisté à autoriser Ñ ou à imposer Ñ une certaine indétermination dans la forme musicale, devenant « forme ouverte », en laissant le choix final de la forme au hasard, ou à une détermination extérieure à la musique elle-même, à l'instar des sculptures mobiles d'Alexandre Calder. Parmi les oeuvres ouvertes ou aléatoires de cette époque, il faut citer les Avalaible forms d'Earle Brown, le Mobile d'Henri Pousseur, la Troisième sonate de Pierre Boulez, les Archipels d'André Boucourechliev, et de nombreuses oeuvres de John Cage.

Les matériaux nouveaux appellent de nouvelles architectures. Ce principe, illustré par Debussy et Varèse dans leurs oeuvres instrumentales, s'applique a fortiori aux musiques électroacoustiques et numériques, dont le vocabulaire sonore puise dans un univers sonore illimité, incluant les sons naturels, les sons de synthèse et toutes leurs transformations ou combinaisons. Non content de composer avec des notes ou des sons préfabriqués, le musicien peut alors donner forme directement à un matériau sonore ductile, le sculpter, le modeler, en somme composer le son lui-même, en joignant aux responsabilités du compositeur celles de l'interprète et du luthier. Comme on l'imagine, ces possibilités entraînent pour la forme musicale de nouveaux avatars : il est donc de plus en plus vain de répertorier les formes musicales d'aujourd'hui suivant les modes d'agencement de leurs éléments.

Suivant les termes d'Arnold Schoenberg, la notion de forme recouvre « tout ce qui assure la logique et la cohérence du discours musical ». La musique est un art du temps. L'unité d'une oeuvre, sa forme musicale, ne peuvent se saisir pleinement qu'après l'écoute intégrale. Remonter à la forme musicale implique une conception exigeante de l'écoute, cherchant à s'absorber dans le temps propre de l'oeuvre et à revivre un « temps retrouvé ».

La partition représente les hauteurs successives en fonction du temps : on peut remarquer qu'il s'agit, historiquement, de la première représentation temps-fréquence , ou plus exactement temps-échelle d'un signal. Le mot échelle, ici, implique que les fréquences sont figurées suivant une échelle logarithmique, sur laquelle des intervalles égaux correspondent à un même rapport de fréquence et non à une même différence de fréquence. Sur une partition, une figure mélodique apparaît comme le contour d'une ligne de crête qui monte et descend. Le compositeur Heitor Villa-Lobos a d'ailleurs réalisé la composition New York skyline en transposant sous forme de notation musicale le profil des gratte-ciel de Manhattan.

Si la notation musicale a servi d'abord à aider la mémoire, elle a par la suite influencé la façon de composer en permettant un travail d' écriture . La complexité polyphonique a augmenté : on trouve des canons de Ockeghem à trente six voix. Les symétries selon les axes de coordonnées de la partition, évidentes sur la représentation graphique, ont suggéré les transformations mélodiques du contrepoint Ñ le renversement des intervalles, la rétrogradation des mélodies Ñ alors que ces transformations ne sont guère utilisées dans les musiques de tradition orale. Le canon présenté en figure 1, extrait de L'Offrande musicale de Jean-Sébastien Bach, illustre la rétrogadation : il se lit de la même façon du début à la fin ou de la fin au début.

Il existe quelques exemples de passages de formes visuelles à des formes sonores. Varèse, décrivant sa musique, utilise des images tirées de la géométrie et de la cristallographie : « Lesformes musicales possibles sont aussi innombrables que les formes extérieures des cristaux ». Stravinsky parle des « précieux diamants » de la musique d'Anton Webern, dont l'écriture recourt souvent à des figures symétriques. Outre New York skyline déjà cité, il faut mentionner diverses partitions graphiques de Sylvano Bussotti, John Cage et Earle Brown. Dans ma pièce Moments newtoniens , j'évoque les travaux de Newton en calcul différentiel par des trajectoires tangentes de fréquence. Metastasis de Iannis Xenakis 1954 est une oeuvre orchestrale majeure : les cordes y tissent d'étonnants glissandi désynchronisés.

Cette oeuvre utilise la transcription sur papier à musique de f ormes spatiales, en l'occurrence des surfaces réglées engendrées par des droites comme le paraboloïde hyperbolique, les pentes des droites de la surface déterminant les vitesses de glissement des hauteurs sonores. Xenakis, alors assistant de Le Corbusier, a plus tard utilisé ces surfaces pour la conception du pavillon Philips de l'Exposition universelle de Bruxelles en 1957.

La partition représente la succession dans le temps des notes de musique, dont chacune possède une hauteur déterminée. On a longtemps pensé qu'une note correspondait à une onde sonore à peu près périodique dont la fréquence déterminait la hauteur perçue, et que des formes d'ondes différentes donnaient des notes de timbres différents Ñ comme ceux de divers instruments.

Mais Ohm et Helhmoltz avaient remarqué que des formes d'onde différentes pouvaient sonner de la même façon à l'oreille : ils ont interprété cette observation à partir de l'analyse de sons périodiques en série de Fourier.

Le baron Fourier avait démontré au début du XIXe siècle qu'on pouvait reconstituer toute onde périodique régulière de fréquence f comme la superposition d'« harmoniques », c'est-à-dire de sinusoïdes de fréquence f, 2f, 3f, etc., avec des amplitudes et des phases appropriées. Ohm a établi que l'oreille était insensible aux relations de phases des harmoniques des sons périodi-ques, ce qui est compréhensible car ces relations sont brouillées au cours de la propagation dans une salle réverbérante : elles n'apporteraient qu'une information non significative perturbant la reconnaissance de la source.

L'allure du « spectre de Fourier » Ñ l'ensemble des amplitudes des harmoniques successifs Ñ devenait alors la signature du son, le déterminant du timbre musical, la matière même du son. Cette conception ne faisait que justifier la pratique des musiciens qui connaissaient les harmoniques depuis longtemps : dès le XVe siècle, les facteurs d'orgue savaient « composer » le timbre des jeux dits de mixture en faisant sonner ensemble plusieurs tuyaux accordés suivant des harmoniques de la note jouée. Pour la parole, la position des maxima spectraux influence le timbre du son et sa qualité « vocalique ». Ainsi une voyelle donnée Ñ a, i ou o Ñ s'obtient en donnant au conduit vocal une certaine forme , qui donne lieu à certaines fréquences de résonance, lesquelles déterminent le spectre émis fig. 2.

Cependant, cette idée du timbre s'est révélée trop simpliste : elle ne s'appliquait qu'à des sons stables, comme les sons d'orgue. Or le timbre d'un piano devient méconnaissable si l'on fait défiler le son à l'envers, ce qui est facile à partir d'un enregistrement sur bande magnétique. Il faut donc prendre en compte l'évolution temporelle du son, la façon dont l'attaque ou l'entretien par l'instrumentiste modèle ce son Ñ ce que Pierre Schaeffer a appelé la forme imprimée à la matière sonore. Aussi a-t-il fallu développer des représentations figurant l'évolution du spectre dans le temps, et comportant donc trois dimensions : fréquence, amplitude et temps fig. 3.

En réduisant la représentation au plan temps-fréquence, on obtient un sonagramme. Quelques sonagrammes de sons musicaux fig. 4 suffisent à montrer l'extrême variété des morphologies sonores5, particulièrement pour les exemples synthétisés par ordinateur : ce processus permet de produire des matériaux sonores très divers et ductiles. Schaeffer, développant la musique concrète au Groupe de recherches musicales à Paris dans les années 1950, avait introduit la notion d'objet sonore, entité pouvant exister isolément et susceptible d'être représentée en trois dimensions fréquence, amplitude, temps. Mais un objet sonore ne correspond pas forcément à une note, et il est des formes sonores qui se laissent difficilement décomposer en objets séparés. Les sonagrammes donnent probablement des sons les images les plus « parlantes » qu'il soit possible d'obtenir. Cependant, il faut se garder de les tenir pour le reflet fidèle de la perception auditive.

D'un son orchestral complexe mais dans lequel l'oreille peut discerner clairement des parties, elles peuvent donner une image confuse et illisible. Et l'oreille confère une valeur toute particulière à certains intervalles de hauteur comme l'octave ou la quinte : un intervalle d'une octave juste est très consonant les notes fusionnent facilement à l'oreille, alors qu'une augmentation d'un demi-ton de cet intervalle le rend très dissonant : il donne lieu à une rugosité, à des battements ou des frottements. A l'inverse, des symétries spatiales peuvent sauter aux yeux sur la représentation sans que l'oreille les remarque. Ainsi les palindromes sont vite repérés par l'oeil mais pas par l'oreille, qu'il s'agisse des canons réversibles de L 'Offrande musicale de Bach fig. 1 ou du palindrome phonétique de Luc Etienne : « Une slave valse nue ». Le sonagramme est donc une représentation du son suggestive, mais infidèle.

La transformée de Gabor et la transformée en ondelettes s'apparentent au sonagramme : elles analysent le son en termes non pas de sinusoïdes, fonctions du temps qui s'étendent jusqu'à l'infini, mais de fonctions limitées dans le temps Ñ grains de Gabor ou ondelettes. Elles donnent lieu à des représentations physiquement complètes, puisqu'elles permettent de reconstituer le son initial6, mais qui sont elles aussi infidèles.

Depuis le siècle dernier, on a réalisé des illusions visuelles et construit des formes « impossibles », comme l'escalier sans fin de Penrose fig. 5 ou la célèbre cascade d'Escher. Grâce à la précision que permet la synthèse des sons par ordinateur, on a pu depuis une trentaine d'années produire des illusions auditives, souvent homologues aux illusions visuelles7 voir l'article de Jacques Ninio dans ce numéro.

La perspective visuelle nous fait interpréter les images suivant certains indices qui nous aident à mieux saisir la dimension des personnages indépendamment de la distance, à favoriser la « constance » de l'objet. Mais cette interprétation peut donner lieu à des illusions, par exemple faire juger comme inégales des longueurs objectivement égales fig. 6.

De la même façon, l'affaiblissement de l'intensité n'est pas un indice suffisant pour évaluer la distance d'une source sonore, dans la mesure où nous ignorons l'intensité qu'elle émet : le son d'une radio ne paraît pas s'éloigner si nous diminuons l'amplification. En revanche, on peut donner l'impression qu'une source sonore s'éloigne s'il existe une réverbération. La réverbé-ration est évidente dans une salle très résonnante, mais même faible sa présence nous aide à jauger la distance d'une source sonore : si une source émettant à intensité constante s'éloigne de l'auditeur, l'énergie du son direct qu'elle envoie diminue, mais le son réverbéré reste approximativement constant. Ainsi notre oreille, évaluant inconsciemment l'importance relative des sons direct et réverbéré, tient compte d'une véritable perspective auditive. De plus, si la source se déplace par rapport à l'auditeur, sa fréquence apparente augmente si elle se rapproche et diminue si elle s'éloigne, en vertu de l'effet Doppler. C'est d'ailleurs avec des musiciens du conservatoire de Vienne que Doppler a effectué ses premières expériences sur l'effet qui porte son nom. Dans les années 1960, John Chowning de l'université Stanford a simulé la perspective auditive et l'effet Doppler pour réaliser des sons de synthèse donnant des illusions convaincantes de mouvement : dans ses musiques « cinétiques », qui utilisent simplement quatre, voire deux haut-parleurs fixes, les sons paraissent se rapprocher, s'éloigner, virevolter autour de l'auditeur, et décrire des trajectoires que l'oreille peut « voir » avec une précision quasi graphique.

En 1964, aux Bell Laboratories, Roger Shepard a synthétisé par ordinateur douze sons formant les intervalles d'une gamme chromatique, mais paraissant monter indéfiniment lorsqu'ils sont répétés. J'ai généralisé cette illusion, homologue à l'escalier indéfini de Penrose. Egalement aux Bell Laboratories, j'ai produit des sons paraissant glisser indéfiniment vers le grave ou vers l'aigu, et des gammes qui paraissent descendre mais aboutissent pourtant à un point plus haut, à l'image de la cascade paradoxale d'Escher.

On voit que la hauteur d'un son est un attribut composé Ñ avec un aspect grave-aigu et un aspect circulaire comme do-si-la-sol-fa-mi-ré-do. Dans les sons normaux, ces aspects varient de façon concomitante, mais ils peuvent être dissociés en contrôlant séparément les fréquences des composantes et l'enveloppe spectrale qui détermine leur amplitude.

« Les illusions, erreurs des sens, sont des vérités de la perception » disait le physiologiste Purkinje : elles révèlent certains mécanismes qui nous permettent d'extraire des formes significatives à partir des données des sens. Au laboratoire de Mécanique et d'Acoustique à Marseille, j'ai pu synthétiser des sons qui paraissent baisser si l'on double toutes les fréquences qui les constituent, ou qui semblent ralentir si l'on double la vitesse de défilement de la bande magnétique. Ces démonstrations ne sont pas de simples truquages ou curiosités sur les imperfections des sens : elles montrent que les formes, reconstruites par notre esprit à partir des données des sens, donnent lieu à des relations qui ne sont pas forcément similaires ou « isomorphes » aux relations entre les aspects mesurables des objets physiques. Les formes sonores que nous percevons sont mentales, elles dépendent de notre être interne et pas seulement des sons que nous captons.

Depuis la dernière guerre mondiale, les travaux du psychologue américain James Gibson, complétés et nuancés par de nombreuses recherches sur la cognition, ont aidé à comprendre nombre d'idiosyncrasies singulières de la perception : leur raison d'être est non pas de mesurer les paramètres physiques des signaux que reçoivent les sens Ñ fréquence, intensité par exemple Ñ mais plutôt de tirer de ces signaux le plus possible d'informations fiables sur l'environnement. Sous la pression de la sélection naturelle, l'évolution des espèces a abouti à un fonctionnement perceptif de plus en plus performant à cet égard. Ainsi distinguons-nous sans hésitation un son émis avec intensité par une source lointaine d'un son doux émis par une source proche, même si l'oreille reçoit dans les deux cas une énergie équivalente.

Aucun dispositif de mesure ne peut égaler l'oreille dans ce genre de tâche. L'audition a évolué pendant des millénaires dans un monde où les sons étaient produits mécaniquement, et c'est avec des sons acoustiques qu'elle atteint ses meilleures performances, mais les enquêtes qu'elle réalise sur la genèse du son fonctionnent « à faux » avec des sons produits électroacoustiquement ou numériquement. L'oreille tend à classer les sons suivant des catégories issues de son expérience acoustique Ñ sons percussifs, frottés, soufflés, percussion de peaux, de bois ou de métal Ñ et cela même avec des sons calculés, produits sans intervention d'actions mécaniques ou de matériaux spécifiques. C'est ainsi que l'on peut évoquer des formes « virtuelles », purement phénoménales8.

Il y a complémentarité entre vision et audition pour percevoir le monde qui nous entoure, et les formes sonores qu'extrait l'audition sont confrontées avec les formes visibles. Par la seule écoute, on peut se former une certaine idée de l'espace, mais lorsque cet espace n'est pas conforme à l'espace visuel, les indices visuels, plus robustes, tendent à dominer et à masquer les indices auditifs contradictoires : seeing is believing . Dans certains cas, on a pu noter une altération des indices visuels par les indices auditifs. En revanche, une concordance d'indices issus de différentes modalités sensorielles tend à renforcer l'emprise de la scène perçue. Au-delà du ballet et de l'opéra, les artistes ont toujours rêvé d'une forme d'art « totale » mettant les cinq sens à contribution. Qu'il s'agisse d'art, d'image ou de son, ces créations ont en tout cas un point commun : la forme tient moins à ses éléments constitutifs qu'à la disposition de ces éléments et à leurs interrelations.

 

DOCUMENT     larecherche.fr    LIEN

UN ORGANISME UNICELLULAIRE CAPABLE D'APPRENDRE

04/06/2016

Paris, 27 avril 2016
Un organisme unicellulaire capable d'apprendre

Pour la première fois, des chercheurs viennent de démontrer qu'un organisme dépourvu de système nerveux est capable d'apprentissage. Une équipe du Centre de recherches sur la cognition animale (CNRS/Université Toulouse III – Paul Sabatier) a réussi à démontrer qu'un organisme unicellulaire, le protiste Physarum polycephalum, est capable d'une forme d'apprentissage nommée habituation. Cette découverte permet d'éclairer l'origine de la capacité d'apprentissage durant l'évolution, avant même l'apparition du système nerveux et du cerveau. Elle pourrait également amener à s'interroger sur la capacité d'apprentissage d'autres organismes extrêmement simples comme les virus et les bactéries. Ces résultats sont publiés dans la revue Proceedings of the Royal Society B le 27 avril 2016.
La capacité d'apprentissage et la mémoire sont des éléments clés dans le monde animal. Tirer des leçons de ses expériences et adapter son comportement en conséquence est vital pour un animal qui vit dans un environnement fluctuant et potentiellement dangereux. Cette faculté est généralement considérée comme l'apanage d'organismes dotés d'un cerveau et d'un système nerveux. Pourtant les organismes unicellulaires doivent eux aussi s'adapter au changement. Manifestent-ils des capacités d'apprentissage ? Des bactéries ont certes une faculté d'adaptation, mais elle se produit sur plusieurs générations et relève donc plutôt de l'évolution. Une équipe de biologistes a donc cherché à apporter la preuve qu'un organisme unicellulaire pouvait apprendre. Ils ont choisi d'étudier le protiste Physarum polycephalum, une cellule géante qui vit dans les sous-bois1 et fait preuve d'étonnantes aptitudes, telles résoudre un labyrinthe, éviter des pièges ou optimiser sa nutrition2. Mais on savait très peu de choses jusqu'à présent sur sa capacité d'apprentissage. 

Lors d'une expérience de neuf jours, les scientifiques ont donc confronté différents groupes de ce protiste à des substances amères mais inoffensives, qu'ils devaient traverser afin d'atteindre une source de nourriture. Un groupe était ainsi confronté à un « pont » imprégné de quinine, un autre à un pont de caféine tandis qu'un groupe témoin devait simplement passer sur un pont non imprégné. Au tout début réticents à franchir les substances amères, les protistes ont appris au fur et à mesure des jours qu'elles étaient inoffensives et les ont traversées de plus en plus rapidement, se comportant au bout de six jours de la même façon que le groupe témoin. La cellule a donc appris à ne plus craindre une substance inoffensive après y avoir été confrontée à plusieurs reprises, un phénomène que les scientifiques nomment habituation. Au bout de deux jours sans contact avec la substance amère, le protiste retrouve son comportement initial de méfiance. Par ailleurs, un protiste habitué à la caféine manifeste un comportement de défiance vis-à-vis de la quinine, et inversement. L'habituation est donc bien spécifique à une substance donnée.

L'habituation est une forme d'apprentissage rudimentaire qui a été caractérisée chez l'aplysie (un invertébré aussi appelé lièvre de mer)3. Cette forme d'apprentissage existe chez tous les animaux, mais n'avait encore jamais été trouvée chez un organisme dépourvu de système nerveux. Cette découverte chez un protiste, lointain cousin des plantes, champignons et animaux, apparu sur Terre environ 500 millions d'années avant l'homme, permet de mieux comprendre les origines de l'apprentissage, qui précède de loin celles des systèmes nerveux. Elle ouvre également la possibilité de rechercher des types d'apprentissage chez d'autres organismes très simples comme les virus ou les bactéries.

 

DOCUMENT         cnrs        LIEN  

ÉMOTION ET MÉMOIRS ...

29/05/2016

Privée d'émotions, la mémoire flanche
la mémoire et l'oubli - par Martine Meunier dans mensuel n°344 daté juillet 2001 à la page 82 (1969 mots) | Gratuit
Emotions et souvenirs se forment dans la même partie du cerveau. Mais l'impact de cette découverte a été négligé durant le XXe siècle. Leurs relations commencent seulement à être étudiées grâce à l'émergence des neurosciences affectives.

Nos émotions jouent un rôle essentiel dans notre mémoire autobiographique. Mais l'étude des mécanismes cérébraux qui les gouvernent a longtemps été négligée par les neurosciences. Toute émotion affecte simultanément notre corps, notre comportement, nos sentiments et notre mémoire. Autant d'aspects difficiles à mesurer objectivement et à évaluer simultanément. Face à une même situation, les réponses émotionnelles varient en fonction de l'individu, de son tempérament et de son environnement physique et social. Une versatilité qui complique encore leur évaluation.

A la fin du XIXe siècle, Sigmund Freud attribuait pourtant aux émotions une influence déterminante dans le développement des individus. Le psychologue William James soulignait déjà leur importance pour le bon fonctionnement de la mémoire . « Se souvenir de tout serait aussi fâcheux que ne se souvenir de rien », insistait-il. Le cerveau doit effectuer une sélection. Il le fait en fonction de la valeur affective qu'un événement revêt pour nous. Tout au long du XXe siècle, les émotions ont conservé une place centrale au sein de la psychologie. En revanche, la compréhension de leur organisation cérébrale ne s'est imposée comme un enjeu majeur pour les neurosciences qu'au cours de ces dernières années. Cette lente évolution est bien illustrée par l'histoire de nos connaissances de deux régions présentes dans chaque hémisphère du cerveau, les lobes frontal* et temporal*. Découverte vers le milieu du XIXe siècle, leur importance pour les émotions n'a longtemps suscité qu'un intérêt marginal. A l'opposé, leur implication dans la mémoire, identifiée plus tard, a immédiatement suscité un nombre considérable de travaux.

Dès 1848, John Harlow, médecin d'une petite ville de l'Est américain, décrivait le cas spectaculaire de Phineas Gage voir l'encadré : « Comment la barre de Phineas Gage révéla le rôle du lobe frontal » et remarquait le rôle des lobes frontaux dans le contrôle des émotions. Mais la localisation cérébrale des fonctions mentales, idée largement acceptée aujourd'hui, suscitait alors de vives controverses. Elle ne s'imposera lentement qu'après la démonstration, dans les années 1860-1870, du rôle de certaines aires de l'hémisphère gauche dans le langage. En 1848, le cas de Phineas Gage fut donc plutôt perçu comme un encouragement pour la neurochirurgie balbutiante du moment. Il s'avérait en effet possible d'ôter une grosse portion du cerveau en cas de tumeur par exemple sans provoquer la mort, ni altérer aucune des fonctions psychologiques « majeures », perception, motricité, langage, intelligence, ou mémoire. Dans les décennies qui suivirent, la neurochirurgie fit d'énormes progrès, aidée, paradoxalement, par la Première Guerre mondiale et ses nombreux blessés. Le cas de Phineas Gage ne fut plus guère évoqué dans la littérature médicale. Le lobe frontal fascinait les chercheurs de la première moitié du XXe siècle, mais en tant que siège des fonctions intellectuelles « supérieures » spécifiques aux primates. Cette région du cerveau est en effet si développée chez l'homme qu'elle occupe à elle seule un tiers du cortex.

Lobotomies frontales. Lors du 2e Congrès international de neurologie, à Londres, en 1935, le neuropsychologue Carlyle Jacobsen et le neurochirurgien John Fulton présentèrent leurs travaux sur les effets d'une ablation des lobes frontaux chez des chimpanzés. Placées face à deux coupelles identiques, les deux femelles opérées, Becky et Lucy, étaient incapables de retrouver laquelle dissimulait une friandise, bien que la récompense ait été cachée sous leurs yeux quelques secondes auparavant seulement. Cette étude pionnière ouvrit la voie vers la compréhension des relations entre lobe frontal et mémoire. Jacobsen et Fulton mentionnèrent également des changements surprenants de comportement chez les animaux opérés. Lucy, à l'origine calme et tempérée, devint plus coléreuse et violente. A l'inverse, Becky, irascible avant l'opération, semblait d'une indéfectible bonne humeur après. Bien qu'apportant une nouvelle preuve du lien entre lobe frontal et émotions, ces anecdotes eurent peu de répercussions sur la recherche fondamentale. Le cas de Becky eut, en revanche, une conséquence inattendue en psychiatrie. Le neurologue portugais Egas Moniz allait, dès son retour du congrès de Londres, pratiquer des lobotomies frontales chez des patients psychotiques. Ainsi naquit la psychochirurgie, thérapeutique audacieuse consistant à ôter une partie du cerveau pour traiter les maladies mentales.

En dépit de ses effets secondaires, ce traitement radical allait rapidement être appliqué à des milliers de patients dans le monde entier. Et même valoir un prix Nobel à Moniz en 1949, avant que son usage abusif ne lui fasse une sinistre réputation, et que l'arrivée des neuroleptiques dans les années 1950 ne le rende obsolète1. Le cortex préfrontal ou partie avant du lobe frontal, celle qui fut touchée chez Gage, cible des lobotomies, allait cependant rester la structure la moins bien connue du cerveau jusque dans les années 1970 ! Les nombreux travaux suscités par les déficits d'apprentissage rapportés par Jacobsen et Fulton établiront seulement après cette date le rôle de la partie latérale du cortex préfrontal dans la mémoire de travail, celle qui nous permet de garder en tête une information, un numéro de téléphone par exemple, juste le temps de l'utiliser.

Inadaptation émotionnelle. En ce qui concerne les lobes temporaux, les premiers indices de leur implication dans les émotions remontent à des observations faites en 1888. Mais ils tombèrent dans l'oubli jusqu'à la découverte du psychologue Heinrich Klüver et du neurologue Paul Bucy de l'université de Chicago en 1938. Etudiant des singes porteurs de lésions des lobes temporaux, ces auteurs furent surpris par les comportements émotionnels inadaptés de ces animaux. Ils approchaient, manipulaient ou portaient à la bouche, de façon compulsive, tout ce qu'on leur présentait. Ils paraissaient également ne plus ressentir aucune peur, même face à un serpent. Une attitude qui leur aurait été fatale dans leur milieu naturel. En 1956, on établit que ce syndrome, dit de Klüver et Bucy, est principalement dû à l'atteinte de la région antérieure de la partie médiane du lobe temporal, celle qui contient l'amygdale2, une petite structure en amande. On ne s'interrogera plus guère ensuite sur les fonctions exactes des lobes temporaux pour les émotions. Car commence alors la saga, toujours d'actualité, de leurs relations avec la mémoire.

En 1957 et 1958, la psychologue Brenda Milner de l'institut neurologique de Montréal décrit les cas dramatiques de patients devenus amnésiques à la suite d'une ablation chirurgicale de l'un ou des deux lobes temporaux. Elle a observé cet effet inattendu chez quatre patients, deux parmi les trente opérés par William Scoville aux Etats-Unis, et à nouveau deux parmi plus de quatre-vingt-dix patients opérés par Wilder Penfield au Canada. La postérité retiendra l'un d'entre eux, qui deviendra célèbre sous les initiales H.M. Une large partie de nos connaissances actuelles sur l'organisation cérébrale de la mémoire repose sur lui. En 1953, ce jeune homme de 27 ans subit une ablation des deux lobes temporaux pour ôter le foyer d'une épilepsie très invalidante et rebelle à tout traitement médicamenteux. L'opération soulagea l'épilepsie. Mais elle provoqua une amnésie profonde qui perdure aujourd'hui.

Hippocampe. Depuis près de cinquante ans maintenant, H.M. oublie au fur et à mesure tous les événements de sa vie quotidienne. Or sa lésion, contrairement à celle de la plupart des patients opérés en même temps que lui, s'étendait au point d'inclure non seulement l'amygdale, mais aussi une large portion de l'hippocampe. Ainsi découvrait-on que l'hippocampe, dont la fonction était jusqu'alors inconnue, était en fait nécessaire pour la formation des souvenirs nouveaux. Cette découverte allait motiver un nombre considérable de travaux expérimentaux. Un intense effort qui a abouti aujourd'hui à une remarquable connaissance des bases cérébrales de la mémoire épisodique et sémantique, celles, respectivement, des événements personnellement vécus et des connaissances générales sur le monde.

En revanche, H.M. n'a jamais été l'objet d'une évaluation approfondie sur le plan émotionnel. Seules quelques anecdotes ont été rapportées à son sujet qui suggèrent un appauvrissement émotionnel, différent mais néanmoins proche de celui des singes de Klüver et Bucy, après le même type de lésion. En dehors de quelques accès d'irritabilité, H.M. a en effet été décrit d'une humeur étonnamment placide, parlant sur un ton monotone, et témoignant d'une résistance inhabituelle à la douleur, la faim ou la fatigue.

Les émotions sont aujourd'hui l'objet d'un intérêt grandissant en neurosciences, comme en témoigne la croissance exponentielle des publications dans ce domaine depuis la fin des années 1990. Ce rebondissement s'explique par la convergence d'au moins trois facteurs. En premier lieu, l'essor des neurosciences cognitives, tout au long du XXe siècle, a considérablement accru notre savoir sur le cerveau, fournissant ainsi les bases indispensables pour aborder la complexité des phénomènes affectifs. En second lieu, des perspectives entièrement nouvelles ont émergé grâce à de récents progrès techniques. Notamment, l'imagerie fonctionnelle nous donne aujourd'hui la possibilité de voir le cerveau humain normal en action, alors qu'autrefois nous devions nous contenter des indices fournis par le cerveau lésé. Enfin, plusieurs chercheurs contemporains, ouvrant la voie des neurosciences affectives, ont su réactualiser l'idée ancienne selon laquelle les émotions sont en réalité la cheville ouvrière du bon fonctionnement de nombre de nos facultés, adaptation sociale, raisonnement, prise de décision, ou mémoire. Les neurosciences affectives offrent déjà un aperçu des mécanismes cérébraux qui gouvernent l'influence des émotions sur la mémoire.

Les travaux actuels concernent principalement les deux amygdales situées chacune à l'avant de la partie médiane du lobe temporal. Chez le rat, différentes équipes dont celles de Michael Davis à Yale et de Joseph LeDoux à New York, ont réussi à démonter la machinerie complexe qui contrôle les peurs conditionnées3. Il s'agit de ce phénomène, commun à nombre d'espèces, de l'escargot de mer à l'homme, par lequel un stimulus neutre associé à un événement désagréable acquiert ensuite le pouvoir de déclencher à lui seul une réaction de peur. Parmi les différents noyaux composant l'amygdale, le noyau latéral reçoit des informations des régions sensorielles comme le cortex visuel. Il les transmet au noyau central relié aux centres cérébraux qui déclenchent les réactions dites autonomes, comme l'accélération du rythme cardiaque. Ce circuit assure l'apprentissage des peurs conditionnées. Il influence des structures voisines comme l'hippocampe qui restituent les souvenirs liés à ces peurs.

Imagerie fonctionnelle. Les expériences chez le rongeur ont ouvert la voie à l'exploration du comportement plus riche des primates. Chez le singe, la destruction sélective des seules cellules des amygdales suffit à perturber l'utilisation de l'ensemble du savoir émotionnel et social des animaux4. Chez l'homme, leur importance pour la mémoire émotionnelle a été particulièrement bien démontrée par une étude utilisant l'imagerie fonctionnelle par TEP5 Tomographie par émission de positons, voir l'article de Francis Eustache. Le neuropsychologue Larry Cahill et ses collègues de l'université de Californie ont mesuré l'activité du cerveau de huit volontaires pendant qu'ils regardaient des documentaires relatant soit des événements neutres, soit des images très négatives de crimes violents, par exemple. Trois semaines plus tard, les sujets se souvenaient beaucoup mieux des films négatifs que des films neutres, reflétant l'amélioration de la mémoire par les émotions. Mais le résultat important était le suivant : plus l'amygdale située du côté droit du cerveau avait été active pendant la présentation des films, meilleurs étaient les souvenirs des films négatifs. A l'inverse, l'activité de cette amygdale ne prédisait en rien la qualité des souvenirs pour les films neutres. Cette étude fournit donc la preuve d'un lien entre l'activité de l'amygdale droite pendant l'encodage d'informations riches en émotions et leur rétention ultérieure.

En accord avec cette conclusion, les patients dont l'amygdale a été endommagée présentent une mémoire correcte mais insensible à l'effet accélérateur des émotions. A l'inverse, cet effet reste présent chez les amnésiques dont l'amygdale est intacte, ainsi que chez les personnes atteintes de la maladie d'Alzheimer. Ces patients oublient moins les événements à forte connotation émotionnelle que les autres. Une découverte qui pourrait se révéler utile pour améliorer le soutien quotidien apporté à ces malades.

Par Martine Meunier

MÉMOIRE ...

22/05/2016

Comment la littérature réinvente la mémoire


la mémoire et l'oubli - par Claude Burgelin dans mensuel n°344 daté juillet 2001 à la page 78 (3317 mots)
Par définition, l'écriture est mémoire, conservation de traces, défi de la mort. Dans le sillage tumultueux de la Seconde Guerre mondiale, nombre d'écrivains français, de Georges Perec à Patrick Modiano, Claude Simon ou Nathalie Sarraute, ont renouvelé cet art ancestral. Leurs oeuvres dévoilent à quel point la mémoire humaine est pillarde, tricheuse et voleuse impénitente.

Plus que jamais, la mémoire anime la scène littéraire. Depuis deux ou trois décennies, de nombreux textes, souvent parmi les plus achevés, ont été écrits par des auteurs qui tournaient la tête vers la gauche, vers le passé. Mais la plupart de ces écrivains ne se sont pas contentés de faire oeuvre de mémorialistes au sens traditionnel du mot. Puisque la mémoire en son plus intime est liée au langage, aux images liées à des mots, ils ont été ainsi amenés à interroger le fonctionnement même de la mémoire, ses limites et ses pouvoirs, sa capacité à transformer ou à structurer, et même ses aptitudes créatrices. La littérature a eu ici une fonction heuristique. Elle a permis d'élargir le champ de la mémoire, d'en ouvrir les frontières et presque de renouveler le sens même du mot.

Question de survie. Cette présence polymorphe des écritures de la mémoire a entre autres origines les violences de l'Histoire contemporaine et les traumatismes qu'elles ont laissés. Se sont ainsi multipliées les histoires d'errances et d'exils Europe de l'Est, anciennes colonies, etc., souvent dramatiques, chaque fois différentes. Le génocide des Juifs avait été programmé pour être un anéantissement de la mémoire - et c'est ce qu'ont vécu bien des survivants. Les fractures ont été cassures des liens familiaux, mais aussi ruptures des liens culturels et des transmissions symboliques. Toutes sortes de fils de la mémoire ont été coupés. Pour certains, il s'agissait - ce pouvait être une question de survie - de trouver par les mots les moyens de remplacer les paroles et les langages symboliques qui n'ont pu être légués.

L'histoire de Georges Perec est de ce point de vue éloquente. Ses parents sont des Juifs d'origine polonaise. Son père est tué en 1940 lorsqu'il a quatre ans. En 1941 ou 1942, le petit Georges part avec un convoi de la Croix-Rouge dans le Vercors. Sa mère l'accompagne à la gare de Lyon : il ne la reverra plus. Prise dans une rafle, elle périt à Auschwitz en 1943. De 1942 à 1945, il se vit comme un enfant perdu, sans repère dans l'espace et dans le temps ; les liens de parenté lui paraissent incompréhensibles ; tout se passe comme s'il n'avait plus d'identité, plus d'intériorité.

Un de ses symptômes sera désormais de ne plus avoir de mémoire de son enfance. Comme si, avec la disparition de sa mère, avaient disparu aussi les souvenirs de l'enfant qu'il fut auprès d'elle. Le texte autobiographique qu'il publie en 1975, W ou le souvenir d'enfance , met en scène de manière précise et saisissante cette destruction de la mémoire et sa reconstruction. Dans la première moitié du livre, Perec rassemble et analyse tous les souvenirs qu'il a gardés de ses premières années et tous les fantasmes qu'il a élaborés autour des très rares photos ou témoignages qu'il a pu recueillir. Il montre que tous sont marqués d'erreurs ou d'évidentes distorsions. La mémoire qu'il croit avoir n'est faite que de bribes de mythes et de légendes qu'elle s'est fabriquées. Et surtout rien ne lui rendra le souvenir d'enfance fondamental qui lui fait défaut : la souvenance de sa mère. S'il a quelques images du moment de la séparation d'avec elle, s'il se souvient peut-être de sa présence, lui font défaut les souvenirs de son visage, de sa voix, de l'enfance qu'il eut à ses côtés.

Hypermnésie. A cette perte de la mémoire Perec va réagir en devenant hypermnésique. Comme pour faire pièce à ce blanc, sa mémoire enregistre dorénavant tout ce qui lui paraît faire signe et sens. Elle se repaît de données de toute sorte, notamment de noms propres listes de noms de sportifs comme noms de lieux ou de personnages historiques, etc.. Comme si, après avoir tout perdu, sa mémoire devait désormais ne plus rien laisser disparaître. Cette mémoire hypertrophiée s'exerce surtout pour ce qui concerne les noms, les lieux, les temps, et tout ce qui aide à constituer des archives : livres, films, textes divers. Elle lui sert dès lors de substrat d'une identité de remplacement. Cette mémoire à la fois personnelle lui seul a tant emmagasiné et impersonnelle rien de plus anonyme que des listes de noms..., il la transforme par l'écriture en un terrain de jeux, de recherches et d'échanges, et fait de la mémoire un lieu de rencontres. De jardin privé, elle devient place publique.

Son Je me souviens est à cet égard exemplaire. 480 fois, il décline la phrase « je me souviens de... » en la faisant suivre d'un nom propre, d'un événement médiatique, d'un refrain, de l'intitulé d'une émission de radio, d'un slogan publicitaire, du titre d'un manuel scolaire : incandescences d'un instant, pétillements éphémères de l'histoire immédiate, fragmenticules de ce qui fait la chronique quotidienne venus s'inscrire sans qu'on le veuille au vif de notre mémoire alors même que nous ne savons pas toujours garder en nous des souvenirs de moments autrement plus impliquants.... Cette litanie de souvenirs fait immanquablement venir aux lèvres un « moi aussi... ». Et si les souvenirs d'un homme né en 1936 ne peuvent être ceux de qui est né bien après, la manière de faire de Perec indique une politique et presque une éthique de la mémoire : ces menus débris, ce ramassis hétéroclite de noms de gangsters et de sportifs, de chanteurs et d'hommes politiques, de titres de films ou d'émissions de variétés constituent pour nous des pilotis de la mémoire, signent notre façon d'avoir été latéralement contemporains de l'histoire et sont source d'un plaisir partagé de la réminiscence. Ainsi, tout en restant, consciemment ou non, lieu du traumatisme, la mémoire devient également composante d'une sorte de bonheur discret du souvenir. D'autant plus que nous sont proposées par de tels biais des stratégies actives par rapport à la mémoire. On peut par exemple ne pas attendre qu'elle fasse passivement son travail de passoire. Quand Perec rédige sa Tentative d'inventaire des aliments liquides et solides que j'ai ingurgités pendant l'année 1974 , il s'astreint à dresser chaque jour la liste de tout ce qui a constitué ses repas. Suit un bilan cocasse et vaguement inquiétant de ce qu'un Occidental quelconque peut engloutir en une année. Un mémorial de l'infime, mais qui peut devenir socle d'une mémoire. Car la mémoire n'a pas à jouer les grandes dames : elle se nourrit de tout, à commencer par ce à quoi nous ne prêtons qu'une attention distraite ou discrète. Dans Espèces d'espaces , « journal d'un usager de l'espace », Perec inventorie ceux, intimes ou publics, que nous arpentons et traversons. Puisque l'espace est de moins en moins un lieu de mémoire, que les repères sont de plus en plus instables, il importe plus que jamais de s'en faire par l'attention du regard et par la trace écrite le mémorialiste, le greffier.

Depuis la nuit des temps, pour retenir des traces, pour étayer leur mémoire, les humains ont utilisé le graphe, la lettre, le nombre. Perec est devenu un virtuose de l'association des lettres et des nombres écrivant ainsi un roman, La Disparition , sans jamais utilis e r la voyelle e, chiffrant secrètement presque tous ses textes, y engrammant des nombres 43, par exemple, date de la mort de sa mère, offrant ainsi une sorte d'architecture invisible à sa mémoire évidée. Et, paradoxe des transmissions inconscientes, il renoue par là avec quelque chose de l'univers de la Kabbale ou du talmudisme judaïque. Ses jeux avec le mémoriel lui font retrouver les ombres de la mémoire de ses ancêtres1.

Tombeau de mots. Comment garder le souvenir de celui ou de celle dont on n'a pas gardé mémoire ? Un autre écrivain français a tenté de répondre à cette question en forme de paradoxe. Un jour des années 1980, Patrick Modiano tombe sur une annonce parue dans le numéro de Paris-Soir du 31/12/1941 signalant la disparition d'une jeune fille de quinze ans, nommée Dora Bruder et donnant l'adresse de ses parents. A partir de cette simple indication, Modiano se met en quête de Dora Bruder et de son destin. Sa patiente traque lui fait retrouver les données d'état civil concernant Dora et ses parents, des Juifs immigrés, les lieux où elle a vécu, le pensionnat où elle a été cachée. De sa personne nul aujourd'hui ne semble se souvenir. Elle et ses parents ont péri à Auschwitz. Leur mémoire est partie en fumée avec eux. Rien ne reste d'eux que leurs noms... Demeurent pourtant quelques-uns des magasins que Dora a pu voir, les stations où elle prenait le métro, les boulevards qu'elle arpentait, la caserne des Tourelles où elle fut enfermée avant Drancy. Peu à peu, au travers de ces minutieux repérages d'adresses et de lieux précis, se dessine en creux le fantôme de Dora Bruder. Cette enquête patiente et acharnée vient se nourrir de toutes sortes de rappels de mémoire pour l'auteur. La mémoire de Modiano vient donner des contours à celle à jamais disparue de Dora Bruder sans pour autant venir se substituer à elle. Et alors même que la folie nazie a tout fait pour que la mémoire d'un être d'aussi peu d'importance sociale que Dora Bruder disparaisse à jamais, la quête et le récit de Modiano lui donnent à la fois une mémoire symbolique - un tombeau de mots, l'équivalent de l'inscription d'un nom sur une tombe -, et sinon une mémoire charnelle et vive, l'ombre ou le fantôme de cette mémoire2.

Des « gens de peu » sont aussi les héros des Vies minuscules , de Pierre Michon, qui a choisi de raconter les vies de huit personnages ayant, d'une façon ou d'une autre, croisé sa route. Parfois dans la réalité - camarades de lycée ou voisin de lit à l'hôpital -, parfois dans la mémoire, pour ne pas dire dans la légende - récits indécis transmis concernant un ascendant ou même des figures plus lointaines3. Tous ces êtres ont en commun d'avoir été des losers , issus presque tous des mêmes confins reculés du massif Central la Creuse, et d'avoir des destins qui les vouent à l'oubli et au silence. A ceux qui furent ainsi des êtres du bas-côté Pierre Michon redonne vie et, par la noblesse des mots, un relief et une sorte d'éclat. Mais ce faisant, ce sont, par métaphore, les linéaments de sa propre mémoire qu'il dessine. Si son récit touche çà et là à l'autobiographie, c'est là encore cette mémoire des autres et de leur destinée de perdants qui vient donner comme une étoffe à la sienne.

Mémoire d'autrui. On en vient ici à une des données à la fois limpides et énigmatiques que mettent au jour ces écritures de la mémoire. Si la mienne défaille, ne peut ou ne veut se dire, celle d'autrui peut venir la relayer ou s'y substituer. Des mémoires différentes peuvent lui donner des contours. La mémoire d'autrui peut s'emprunter, les signes de son passé représenter les miens. Dans ce cas, le travestissement s'affiche. Mais la démarche est sans doute tout aussi rigoureuse que celle qui consiste à présenter comme miens des souvenirs faits de bribes de mythes, de on-dit divers, d'emprunts inconscients aux souvenirs et aux signifiants des autres. Si « je est un autre », il y a là une façon d'aller au bout de cette logique. Dans Ellis Island , Perec, à partir d'une enquête et d'un film sur le musée new-yorkais de l'émigration, évoque à travers ce « lieu de l'absence de lieu » un centre de triage sur un îlot, un lieu de transformation des identités la mémoire de ces exilés4. En rappelant ce que purent être leurs histoires, il tente de cerner sa propre identité de juif, d'homme rattaché à nulle part, son absence de repères ou de racines. La mémoire des émigrants d'Ellis Island n'est pas la sienne, mais il peut, grâce à elle, dire la sienne - ou plutôt ce qu'il ne saurait dire autrement de la sienne.

Ainsi ce que nous rappellent Perec et bien d'autres, c'est que la mémoire est une pillarde, une voleuse et une tricheuse. La mémoire qu'il n'a plus, Perec se la reconstruit en l'empruntant à celle des auteurs qu'il a lus et relus. Ceux dont il s'est approprié les mots et les formules Flaubert, Roussel, Kafka, Queneau, Leiris, etc. deviennent comme l'humus de sa mémoire - et donc de son identité. Ma mémoire n'est donc peut-être pas mon bien propre, ce coffre-fort mal clos où seraient enfermés mes souvenirs, d'autant plus précieux qu'ils seraient à moi et à personne d'autre. Cette vision naïve d'une mémoire autarcique et repliée sur elle-même, bien des textes actuels la mettent à mal.

Pilotis paternels. A utobiographie de mon père : le titre même du livre de Pierre Pachet affiche la contradiction5. Ce père est lui aussi un juif émigré venu d'Europe de l'Est, et son histoire, une fois de plus, est faite de cassures et de pertes. Une de ses caractéristiques fut d'avoir été passablement silencieux et retenu dans l'expression de ses affects. Le récit de Pachet va lui donner la parole tout en respectant son besoin de la discrétion et de la réserve. La mémoire qu'il n'a que sobrement transmise, son fils se bornera à l'éclairer, à en indiquer les arrière-fonds : il transmet l'univers de signes de son père en en indiquant des traductions possibles. Tout cela transite par la mémoire de ce fils qui, en le faisant ainsi parler, donne à entendre comment sa mémoire est venue donner des pilotis, des arrière-cours et peut-être une couleur à la sienne.

L'entreprise la plus ambitieuse, à l'architecture et à l'orchestration singulièrement puissantes, est celle que mène à bien depuis vingt ans Claude Simon. Les Géorgiques , L'Acacia , Le Jardin des Plantes et, tout récemment, Le Tramway 2001 semblent avoir pour puissance organisatrice la mémoire6. Les Géorgiques font se superposer et s'intriquer trois histoires, celle d'un ancêtre, ex-conventionnel devenu général d'Empire, celle d'un combattant des milices populaires dans l'Espagne de 1937 lui-même, mais aussi George Orwell..., celle du soldat de 1940 qu'il fut, battant en retraite devant l'ennemi. Les histoires s'entrelacent, les tragédies se répètent, une même mémoire reprend ces événements, en fait une chambre d'échos multiples. L'Acacia crée un réseau de correspondances et d'amalgames subtils entre l'histoire du père tué en 1914 et celle de son fils frôlant la mort au printemps 1940 - comme si une seule mémoire venait brasser ces images d'époques différentes. Le Jardin des Plantes se présente comme le « portrait d'une mémoire » : c'est un texte en mosaïque, fait de fragments, d'arêtes, de menues pulvérulences ; les souvenirs savamment juxtaposés d'impressions et de sensations de toute sorte et de tout âge de la vie dessinent l'histoire d'une existence. Tout l'art de Claude Simon consiste à savoir faire architecture de cet amoncellement d'infimités, d'instantanés fixés, qui semblerait ne connaître comme ordre que celui de la dispersion. Et ses phrases, aux arborescences incroyablement ramifiées, dessinent cette trame complexe dans laquelle vient prendre forme « l'impalpable et protecteur brouillard de la mémoire » .

Toute cette constellation de textes de natures et d'inspirations différentes laisse voir combien l'imagination ne cesse d'élaborer et de réélaborer la mémoire, la métamorphosant subtilement par ajouts, oublis, superpositions. Freud a montré que l'inconscient à l'oeuvre dans nos rêves, fantasmes et souvenirs construisait ses figures par condensation ou déplacement, par métaphore ou par métonymie. Notre mémoire fait de même : elle s'approprie des histoires arrivées à d'autres, des fragments de légendes ou de mythes, des images de toute sorte. Elle en fait son miel particulier, mêlant incessamment, et bien sûr à son insu, le vrai et le faux, l'exactitude et la fable. Elle apparaît ainsi comme un espace de création au même titre que d'autres.

La mémoire vive de la langue, la plus archaïque et la mieux imprimée en nous, est liée à cet univers de rythmes et de sonorités, d'images acoustiques très anciennement engrammées comme de mises en structures aux formes plus ou moins fixes cf. en français, l'alexandrin ou le système de la rime. C'est ce rapport à la poésie, à la berceuse, au refrain, à la litanie, à la répétition envoûtante ou apaisante qui donne à la mémoire son terreau fondamental, celui sur lequel viendront se greffer les connaissances abstraites et la mise en ordre intellectuelle du monde. Ce terreau est celui que la littérature vient labourer. L'art du manieur de phrases qu'est l'écrivain est de savoir faire vibrer cet en-deçà des mots, de venir l'inscrire dans sa façon même d'organiser le sens.

Labyrinthe verbal. Toute écriture qui part vraiment à la recherche de ses arrière-fonds pétrit cette pâte verbale d'avant la mémoire organisée et qui pourtant la fonde. Serge Doubrovsky La Dispersion , Fils , Un amour de soi , etc. a construit autour de son existence un immense labyrinthe verbal7. Et, pour mener à bien ce projet autobiographique, il confie ce qu'il appelle « le langage d'une aventure » à « l'aventure du langage » . Autrement dit, son propos s'enchaîne et prend forme autour d'un flux incessant d'allitérations, d'associations, de rimes, d'entrechocs de mots. C'est là sa façon de faire entendre comment sa mémoire a agrégé des sonorités, des rythmes, des assonances comme un fonds inépuisable où sa verve viendrait constamment se ressourcer. Comme si sa manière de travailler ce matériau sonore et d'être travaillé par lui désignait cela même qui ne peut se dire : désir, excitation, jouissance - tous ces influx et afflux que nos mots ne savent encadrer et qui viennent donner son étoffe ou sa couleur à notre mémoire.

Un des défis que cherchent à relever les textes les plus intenses - de Duras à Valère Novarina, de Beckett à Pierre Guyotat - est d'essayer de faire entendre à travers l'écriture quelque chose de la voix. Notre voix dit le plus intime de nous - agressivité, mélancolie, pulsions... -, notre rythmique singulière, notre musique très particulière : donc, ce qui s'est inscrit et façonné en nous dans les rapports du langage et du corps depuis notre histoire la plus archaïque. Rechercher une écriture de l'oralité, qui tente de métaphoriser les harmoniques, les justesses ou les porte-à-faux de la voix, est une des façons d'introduire la mémoire comme force organisatrice de l'écriture.

Mais l'écriture est aussi un instrument privilégié pour donner forme et organisation à la mémoire. Qu'est-ce qu'un souvenir si on ne lui donne ses racines et radicelles, ses branches et ses ramifications ? L'écriture permet de le réintroduire dans son paysage, dans la complexité de ses arrière-pays. Dans Enfance 1983, Nathalie Sarraute trame le récit de son enfance autour de quelques mots ou de quelques gestes, lancés ou reçus comme des projectiles8. C'est autour d'eux que le système nerveux de la mémoire s'est dessiné, dans la souvenance des décharges ou influx subis à partir de ces mots ou de ces signes. Mais comment faire ressentir que ce sont des gouttes d'acide toujours brûlantes ? Sarraute s'attache patiemment à décrire les ondes de choc créées par ces sensations, à mettre des mots sur ce qui est resté impression vive, mais confuse ou trop chargée d'émotions contradictoires. C'est tout ce tressage verbal qui donne à la mémoire sa consistance autant que ses pouvoirs de résonance.

Certes, par définition, l'écriture est mémoire, conservation de traces, défi de la mort. Le sens ou la nostalgie de la durée l'habitent. Mais, dans un temps dominé par la péremption toujours plus rapide des signes et des références, la littérature renouvelle son compagnonnage avec la mémoire en passant avec elle comme de nouveaux contrats. Dans la tradition grecque, les neuf muses étaient filles de Mnémosyne, la mémoire. Le mythe n'a rien perdu de son actualité : c'est en puisant dans les trésors sans fond de la mémoire individuelle ou collective, récente ou infiniment archaïque, que la littérature - et avec elle la civilisation ? - trouvera les moyens de son renouveau.

Par Claude Burgelin

DOCUMENT larecherche.fr LIEN

A D N

21/05/2016

Paris, 30 avril 2015
Comment une séquence d'ADN mobile trouve-t-elle sa cible ?

Pour comprendre comment les éléments transposables1 façonnent les génomes et y sont maintenus au cours des générations, une étape clé est de découvrir les mécanismes à l'origine de leur intégration ciblée. Des chercheurs du laboratoire Pathologie et virologie moléculaire (CNRS/Inserm/Université Paris Diderot)2, en collaboration avec des chercheurs du CEA3 et d'un laboratoire américain4, ont identifié une interaction entre deux protéines, indispensable pour l'intégration d'un élément transposable dans une zone précise du génome d'une levure. Ces résultats, publiés le 1er mai dans la revue Science, soulignent le rôle de ces séquences d'ADN mobiles dans l'évolution et l'adaptation des organismes, et leur intérêt pour la thérapie génique.
Les éléments transposables sont des séquences d'ADN capables de se déplacer dans les génomes. Ils en représentent une fraction significative et joueraient un rôle important dans leur évolution. En s'intégrant au sein de l'ADN, ces éléments peuvent contribuer à la plasticité du génome et à l'apparition de nouvelles fonctions cellulaires. A l'inverse, ils peuvent également provoquer des mutations mettant en péril la vie des cellules. Leur intégration se fait généralement dans des régions particulières, pauvres en gènes, où elle est moins délétère. Les mécanismes qui permettent cette intégration ciblée sont encore mal compris.

Les auteurs de cette étude se sont intéressés au rétrotransposon5 Ty1 de la levure Saccharomyces cerevisiae pour étudier comment est déterminé le site d'intégration. Ty1 s'intègre dans une région, étroite à l'échelle du génome, située en amont de gènes précis, tous transcrits par un complexe enzymatique, l'ARN polymérase III (Pol III). En utilisant Pol III comme un appât, les chercheurs ont découvert qu'une des protéines de ce complexe, appelée AC40, interagit avec la protéine codée par Ty1 qui permet son intégration. La suite des analyses a montré que cette interaction est indispensable pour l'intégration ciblée de l'élément transposable. En effet, dans des cellules contenant une protéine issue d'une autre levure, équivalente à AC40 au niveau fonctionnel, mais qui n'interagit pas avec Ty1, celui-ci s'insère toujours efficacement dans le génome mais très rarement dans ses cibles habituelles.

L'étude révèle donc un des mécanismes par lesquels une séquence d'ADN mobile trouve sa cible. Elle dévoile aussi quelles sont les régions du génome où cette séquence s'intègre en l'absence de ce  mécanisme de contrôle. Elle s'insère préférentiellement dans les zones situées aux extrémités des chromosomes, qui contiennent des familles de gènes non essentiels en conditions normales mais nécessaires à l'adaptation des levures à des changements environnementaux. Par ailleurs, l'expression de l'ARN polymérase III, qui conditionne l'insertion ciblée de Ty1, est dépendante des conditions environnementales. Ces résultats confortent donc l'hypothèse selon laquelle la mobilité des éléments transposables, souvent activée en réponse au stress environnemental, favoriserait la réorganisation du génome, permettant une adaptation des levures exposées à ces changements et facilitant leur survie.

Au-delà de l'avancée pour la recherche fondamentale, élucider le mécanisme d'intégration de Ty1 a également un intérêt pour la thérapie génique. Celle-ci utilise des vecteurs dérivant de rétrovirus afin de transférer des gènes au sein des cellules. Comme les rétrovirus, ces vecteurs s'intègrent souvent dans des régions riches en gènes où ils peuvent avoir des effets mutagènes. Les propriétés des éléments transposables comme Ty1 pourraient être exploitées pour limiter les impacts des vecteurs de transfert de gènes en contrôlant leur intégration dans des régions à moindre risque.


Notes :
1 Un élément transposable est une séquence d'ADN capable de se déplacer de manière autonome dans un génome. Présents chez tous les organismes vivants, ces séquences mobiles sont considérées comme des moteurs puissants de l'évolution et de la biodiversité.

2 Laboratoire partenaire du Conservatoire national des arts et métiers (Cnam).

3 De l'Institut de biologie intégrative de la cellule (CNRS/CEA/Université Paris-Sud).

4 Department of Genetics, Cell Biology & Development and Center for Genome Engineering (Université du Minnesota).

5 Un rétrotransposon est un élément transposable particulier, capable de se répliquer sur un mode copier-coller donc de se multiplier et d'envahir un génome. Cette réplication passe par un intermédiaire ARN. Les rétrotransposons présentent des similarités avec les rétrovirus.

Références :
An RNA polymerase III subunit determines sites of retrotransposon integration, A. Bridier-Nahmias, A. Tchalikian-Cosson, J.A. Baller, R. Menouni, H. Fayol, A. Flores, A. Saïb, M. Werner, D.F. Voytas & P. Lesage, Science, 1er mai 2015.

 

 DOCUMENT         cnrs        LIEN

BIG BANG

15/05/2016

Quelques millionièmes de seconde après le Big Bang


physique - par Michel Gonin dans mensuel n°357 daté octobre 2002 à la page 22 (3113 mots) | Gratuit
Pourrait-on chauffer suffisamment la matière pour en libérer les constituants les plus élémentaires piégés dans des particules composites quelques instants seulement après la naissance de l'Univers ? Des physiciens y sont parvenus après une vingtaine d'années d'efforts.

Le 10 février 2000, le Laboratoire européen de physique des particules CERN, installé sur la frontière franco-suisse, près de Genève, annonçait à la presse la mise en évidence, après quinze années de recherches, d'un état de la matière encore jamais observé : le plasma de quarks et de gluons, mélange désordonné de particules élémentaires. En quinze ans, nous avions ainsi remonté le temps d'une douzaine de milliards d'années. Un plasma de quarks et de gluons aurait en effet occupé tout le volume de l'Univers, quelques millionièmes de seconde après la naissance de celui-ci lors du « Big Bang » fig. 1.

La date de l'annonce du CERN n'était pas anodine : elle précédait de quatre mois la mise en service aux Etats-Unis d'un nouvel accélérateur, le RHIC acronyme anglais de Collisionneur d'ions lourds relativistes, entièrement consacré à la découverte et à l'étude de ce plasma de quarks et de gluons. C'est peu dire que le communiqué de presse du CERN n'a pas fait l'unanimité parmi les équipes de physiciens impliquées depuis une douzaine d'années dans la conception et la construction du RHIC. Certes, une lecture attentive du texte révèle une certaine prudence dans le choix du vocabulaire. Le mot « découverte » n'y est jamais mentionné : une porte est laissée ouverte aux physiciens du RHIC qui souhaiteraient revendiquer une éventuelle « co- découverte » du plasma primordial. Mais le CERN a voulu s'assurer qu'il y aurait bien partage de cette découverte, et qu'il n'y serait pas oublié.

Effet d'annonce. En physique des hautes énergies, cette démarche est assez habituelle. Avec des projets étalés sur des dizaines d'années, cette physique nécessite une certaine gestion du temps et des effets d'annonce que certains qualifient parfois d'abusifs. Ces annonces sont toujours fondées sur un « niveau de confiance », estimé mathématiquement, mais la frontière entre une affirmation et une présomption peut, dans certains cas et pour un certain temps, être floue. La vérification des résultats, lors de la prolongation des expériences ou avec de nouvelles expériences, a toujours apporté une réponse claire et définitive à la question de la paternité d'une découverte. Dans le cas du plasma de quarks et de gluons, nous pouvons affirmer, deux ans et demi après, que l'annonce du CERN était totalement justifiée au vu de la quantité, de la qualité et de l'originalité des résultats obtenus. Pour autant, le programme du RHIC, qui ne fait que commencer, ne se contentera pas de confirmer les données du CERN. Dans un premier temps, des expériences devaient mettre en évidence le plasma de façon différente. Cela a déjà commencé. Puis, d'ici à quelques années, le RHIC permettra de sonder beaucoup plus en détail le comportement des quarks, les briques ultimes de la matière.

Atomes décomposés. Nous le savons depuis le début du XXe siècle, les particules que nous nommons atomes ne correspondent pas à la définition qu'en donnait Démocrite au IVe siècle avant notre ère : on peut les décomposer en constituants plus élémentaires, les électrons et le noyau. Les physiciens ont ensuite progressivement découvert que le noyau lui-même est formé de protons et de neutrons, puis que les protons et les neutrons sont à leur tour constitués de quarks fig. 2. Ces derniers sont assemblés grâce aux interactions « fortes », transmises par des particules nommées gluonsI.

Les quarks et les gluons semblent être des particules vraiment élémentaires, sans structure interne, comme l'électron. Mais ils restent mal connus : contrairement aux protons et aux neutrons, que l'on peut extraire des noyaux atomiques et observer isolément, les quarks et les gluons n'existent pas à l'état individuel voir l'encadré : « L'interaction forte ». La plupart du temps, ils se regroupent dans des particules nommées hadrons, dont le neutron et le proton ne sont que les deux exemples les plus courants. Si l'on réussit à expulser un quark ou un gluon d'un hadron, par exemple lors d'une collision assez violente entre protons, il s'entoure immédiatement d'autres quarks et de gluons, formés à partir des fluctuations de l'interaction forte dans le vide quantique qui n'est en fait jamais tout à fait vide à cette échelle. Par conséquent, on ne peut pas observer directement un quark ou un gluon isolé dans un détecteur de laboratoire.

Cependant, la théorie qui rend compte de ces interactions fortes entre quarks et gluons prédit aussi que, pour des températures très élevées environ cent mille fois la température maximale de notre Soleil, ces particules retrouvent leur liberté. Retrouver est le verbe juste, car quelques millionièmes de seconde après la naissance de l'Univers, quarks et gluons ont déjà interagi librement, sans plus de contrainte que des boules de billard qui s'entrechoquent. Ces particules étaient aussi alors libres de se déplacer dans un volume infiniment plus grand que les 10-45 m3 des hadrons où le refroidissement de notre Univers les a définitivement emprisonnés. Ce qui s'est précisément passé pendant cette étape de liberté a pu conditionner toute l'évolution ultérieure de notre Univers, par exemple la création d'inhomogénéités dans la répartition de la matière, à l'origine des galaxies et des systèmes stellaires.

Little Big Bang. Pour mieux comprendre les interactions entre les quarks et les gluons, et en même temps mieux décrire les premières étapes de l'évolution de l'Univers, le CERN a lancé en 1986 le programme expérimental « production du plasma de quarks et de gluons ». Baptisé aussi Little Big Bang, ce programme, qui a mobilisé plusieurs centaines de physiciens, était préparé depuis la fin des années 1970. Grâce à deux anneaux d'accélération successifs, un synchrotron* et un supersynchrotron, les ingénieurs et les physiciens du CERN communiquaient à des noyaux atomiques des vitesses proches de celle de la lumière et les projetaient sur des cibles fixes. Les chocs frontaux entre ces ions et les noyaux des atomes cibles devaient produire des températures très élevées dans un volume nettement supérieur à celui qu'occupent les quarks confinés dans un proton ou dans un neutron, de façon à former un plasma. Les cibles étaient entourées d'un ensemble de détecteurs qui enregistraient pour chaque collision l'ensemble des particules stables ou instables émises, ainsi que les fragments des noyaux initiaux n'ayant pas ou peu interagi fig. 3.

Les expériences ont commencé avec des noyaux d'oxygène et de soufre. Puis, à partir de 1994, des noyaux atomiques de plomb environ six fois plus lourds que les noyaux de soufre et douze fois plus lourds que ceux d'oxygène ont été utilisés comme projectiles. Cette augmentation de masse a permis la production de collisions avec des densités d'énergie environ trois ou quatre fois supérieures à celles obtenues jusque-là. Les collisions de ces noyaux de plomb avec des cibles du même élément ont permis d'atteindre une température environ deux cents fois supérieure à celle d'un noyau atomique ordinaire.

2 000 milliards. Sept expériences qui utilisaient différents types de détecteurs de différentes tailles ont participé à ce programme, chacune étudiant des aspects différents de la production du plasma primordial, avec parfois certaines redondances. Les données des sept expériences ont montré que les collisions entre noyaux atomiques ayant un nombre de protons et de neutrons supérieur ou égal à celui du soufre suffisaient à produire le plasma primordial. Ces données confirment expérimentalement certaines prédictions théoriques des interactions fortes, dont la température minimale environ 2 000 milliards de degrés nécessaire pour libérer les quarks et les gluons en formant le plasma. La durée de vie du plasma primordial recréé au CERN soit quelques milliardièmes de milliardième de millionième de seconde était toutefois beaucoup plus courte que celle du plasma présent durant les premiers instants de notre Univers quelques millionièmes de seconde. Ce dernier s'est en effet refroidi beaucoup plus lentement que la matière déconfinée qui a été créée au CERN, car son volume était beaucoup plus étendu, et son expansion beaucoup plus lente.

Prouver expérimentalement que cet état fugace a existé est une gageure. Nos détecteurs ne sont en effet pas assez rapides pour saisir le plasma avant qu'il ne refroidisse et se transforme en matière nucléaire ordinaire constituée de protons, de neutrons et d'autres particules. Dans le flux de particules détectées, seules quelques anomalies trahissent que les quarks et les gluons ont été brièvement libérés, un peu comme des fossiles plus ou moins bien conservés témoignent de l'existence d'espèces disparues.

Lorsque les théoriciens réussissent à prouver que l'une de ces anomalies ne peut pas tirer son origine d'autres événements, elle acquiert alors le statut de « signature » du plasma de quarks et de gluons. C'était justement le travail des théoriciens, pendant la préparation du programme, que de déterminer les signatures les plus caractéristiques, en fonction des performances des accélérateurs. La conception des sept expériences a découlé en grande partie du choix effectué parmi ces signatures.

Rayonnement révélateur. L'une des signatures les plus originales et les moins ambiguës est la production d'un rayonnement électromagnétique dont le spectre est analogue au rayonnement d'un « corps noir ». Dans le langage des physiciens, un corps noir est un objet qui réémet toute l'énergie qu'il absorbe. Le spectre de ce rayonnement ne dépend que de sa température. En particulier, la mesure de la fréquence correspondant au maximum d'intensité permet de calculer la température d'un corps noir. Dans le plasma, les quarks et les gluons émettent ce rayonnement lors de leurs collisions, sous la forme de photons dont l'énergie est si grande qu'ils ne peuvent pas être produits lors du refroidissement ultérieur, et qu'ils sont très peu absorbés par les hadrons.

L'expérience WA98 a effectivement détecté de sérieux indices d'un rayonnement de type « corps noir » pour les collisions les plus violentes entre noyaux de plomb1. En comparant l'énergie de ces photons avec des prédictions théoriques, on calcule qu'ils ont été émis à une température supérieure à la température critique de formation du plasma primordial, indiquant non seulement que celui-ci s'est formé, mais encore qu'il a été chauffé.

La formation de ce plasma chauffé a aussi été démontrée par une autre signature observée expérimentalement au CERN : la réduction de la production des particules J/y voir l'encadré : « Deux noms pour la particule J/y » lors des collisions entre noyaux2. La particule J/y est constituée de deux quarks, de type c charmé et anti-c, qui possèdent une certaine énergie. Les particules J/y ont une probabilité très faible de l'ordre de un dix millième d'être produites dans une collision entre noyaux, car leur masse est trois fois plus grande que celle des protons, et surtout vingt fois plus grande que celle d'autres paires de quarks qui se forment lors des collisions. Mais cette probabilité n'est pas nulle : on observe effectivement la formation de J/y. Au contraire, si le plasma de quarks et de gluons se forme, et qu'il atteint une température assez élevée, cette probabilité tombe à zéro, car l'agitation incessante du plasma produit un effet d'écran entre ces deux quarks et les empêche de se lier.

L'effet d'écran est un phénomène très général : la force d'attraction ou de répulsion entre deux objets physiques chargés est réduite par une accumulation entre eux de charges en mouvement désordonné. On l'observe par exemple entre atomes ou molécules chargés électriquement dans des solutions ou dans des solides. Tout se passe comme dans la scène finale du film Les Enfants du paradis de Marcel Carné. Sur un boulevard de Paris, le couple vedette du film, le mime Baptiste et la charmante Garance, rencontre un défilé carnavalesque. En s'interposant entre eux, et par d'incessants mouvements, cette foule désordonnée sépare définitivement le couple en les entraînant, malgré eux, loin l'un de l'autre. Si l'on remplace Jean-Louis Barrault et Arletty par deux quarks, c et anti-c, et la foule par le plasma de quarks et de gluons, on observe l'annulation par effet d'écran des interactions fortes et électromagnétiques entre les deux quarks : la paire se dissocie et ne se transforme pas en particule J/y. L'écrantage complet de l'interaction électromagnétique entre les deux quarks c et anti-c nécessite une température environ 1,2 fois supérieure à la température critique de formation du plasma.

Ecran discriminant. Cet effet d'écran entraîne bien entendu la dissociation de toutes les paires de quarks qui se seraient formées au moment de la collision, quel que soit le type de quarks. Mais, étant donné sa grande masse, une paire de quarks c et anti-c ne peut se former qu'aux tout premiers instants d'une collision entre noyaux atomiques, lorsque l'énergie disponible est la plus élevée : contrairement à d'autres paires de quarks plus légères, elle ne se forme pas pendant le refroidissement du plasma de quarks et de gluons. Le nombre de J/y émis dans une collision entre noyaux est donc particulièrement sensible à la formation du plasma de quarks et de gluons.

Une telle suppression des particules J/y a justement été observée par l'expérience NA50, dans les collisions entre noyaux de plomb, et pour des événements caractérisés par des températures supérieures à la température critique de déconfinement, en parfait accord avec les prédictions de la théorie fig. 4. Ce résultat spectaculaire confirme la production du plasma primordial, et il indique que celui-ci perdure au moins aussi longtemps que la durée pendant laquelle des particules J/y pourraient se former, soit 3.10-24 seconde.

Enfin, d'autres signatures ont également été observées et mesurées au CERN. Ainsi, la production de quarks s étrange est considérablement accrue. Par ailleurs, les rapports entre les abondances finales des différents types de particules produites au moment où le plasma se condense en hadrons sont constants dans toutes les expériences, quelle que soit la violence de la collision. Comme ces rapports dépendent, en théorie, seulement des masses des particules et de la température de condensation du plasma, nous avons estimé cette température à l'aide des mesures de ces rapports pour plus d'une vingtaine de particules de masses différentes. Toutes les estimations donnent le même résultat à 6 % près ! : environ 2 000 milliards de degrés. Cela signifie que l'abondance de toutes les particules a bien été fixée exactement à la même température, correspondant à la transition entre confinement et déconfinement. Cette valeur de la température critique est de plus en parfait accord avec les prédictions de la théorie des interactions fortes.

Quatre mois après l'annonce du CERN à Brook-haven, sur Long Island, près de New York, le RHIC a été mis en service. Ce nouvel accélérateur, constitué en fait de trois anneaux dont le plus grand a 3 800 mètres de circonférence, est le premier accélérateur où des ions lourds sont projetés sur des ions identiques tournant en sens opposé. Ce fonctionnement en mode collisionneur permet aux physiciens d'atteindre des températures plus élevées qu'au CERN, et donc la production plus fréquente et plus durable du plasma de quarks et de gluons. Ces nouvelles conditions permettront dans un premier temps la confirmation des résultats du CERN, et ensuite l'étude des propriétés de cet état déconfiné de la matière, ainsi que des mécanismes, inconnus pour l'instant, d'emprisonnement des quarks dans les particules : nous ne connaissons bien l'interaction forte que lorsqu'elle est relativement « faible », c'est-à-dire à courte distance dans les hadrons !

La première phase du programme doit se terminer d'ici à quatre ou cinq ans. Quatre « expériences » sont installées sur le RHIC pour produire et étudier le déconfinement des quarks et des gluons. Elles correspondent à quatre ensembles de détecteurs et à environ 1 100 physiciens et une centaine d'ingénieurs regroupés en collaborations : deux principales, Phenix et Star, et deux plus modestes, Brahms et Phobos.

Confirmation générale. Dès sa première année de fonctionnement, le RHIC a permis de collecter certains résultats, mais ce n'est que durant la prise de données effectuée en 2001 que l'énergie maximale de l'accélérateur a été atteinte. D'une manière générale, les premiers résultats confirment certains de ceux obtenus au CERN : une forte augmentation de la production de particules contenant des quarks de type s ; les rapports d'abondance constants des différents types de particules produites pendant le refroidissement du plasma primordial.

Cette première campagne de mesures au RHIC a toutefois produit des résultats plus spectaculaires, par exemple l'observation d'une signature sans doute inaccessible au CERN : la suppression des jets de particules3. Dans une collision entre deux protons, certains quarks peuvent être expulsés du volume occupé par les deux particules. Selon le principe de confinement des interactions fortes, ils doivent « s'habiller avant de sortir » avec des gluons et d'autres quarks. A très hautes énergies, l'habillage d'un quark produit une famille très nombreuse de particules détectables dans une région de l'espace bien délimitée, un cône, et assimilable à un jet. L'observation de ces « jets » a même constitué dans les années 1970 une preuve expérimentale de l'existence des quarks fig. 5.

Jets amortis. Dans le plasma primordial, il est extrêmement difficile pour un quark ou un gluon de sortir avec une très grande énergie, car il cède auparavant une grande partie de celle-ci au milieu déconfiné. Son habillage est alors plus modeste. Par conséquent, en comparaison avec une collision entre protons, la formation du plasma primordial doit, dans une collision entre noyaux, supprimer la production de jets de particules. Cette empreinte du plasma primordial a été observée pour la première fois au RHIC par les expériences Phenix et Star, et a déjà fait l'objet de plusieurs publications : à mesure que la violence de la collision augmente, les jets sont de plus en plus rares. Cette empreinte doit être encore étudiée en fonction des températures atteintes dans les collisions entre noyaux4.

La fréquence des collisions entre noyaux n'est toutefois encore que de 10 % de sa valeur maximale, qui devrait être atteinte en 2003. Les physiciens pourront alors reprendre les études des effets d'écran sur la production des particules rares comme la particule J/y. Les premiers résultats sont attendus pour 2004. La première phase d'exploitation du RHIC se terminera en 2006 avec l'analyse des données sur le rayonnement électromagnétique émis par le plasma primordial à très hautes températures et les effets d'écran dans la production, inaccessibles au CERN, de certaines particules plus rares et plus lourdes que la particule J/y. Il s'agit des particules Upsilon composées de deux quarks de type b et anti-b. Au-delà, après une nouvelle augmentation d'un facteur 40 de la fréquence des collisions, les physiciens pourront alors commencer à explorer, à Brookhaven avec le RHIC, et plus tard au CERN de Genève avec le LHC voir l'encadré : « Des physiciens français à Brookhaven », les propriétés physiques de ce mystérieux et très ancien état de la matière. Un coin du voile concernant l'emprisonnement des quarks et des gluons devrait alors commencer à se lever.

Par Michel Gonin

 DOCUMENT       larecherche.fr       LIEN

LES ROBOTS SOCIAUX

13/05/2016

Les premiers pas des robots sociaux


spécial robots - par Alexis Drogoul et Jean-Daniel Zucker dans mensuel n°350 daté février 2002 à la page 91 (2145 mots)
Après Aibo, les robots guides de musée et les robots nurse, des expérimentations mettent en présence une colonie de robots et des humains dans le cadre de leur vie quotidienne. Une perspective révolutionnaire.

PourquoiR2D2, un droïde non humanoïde, est-il régulièrement cité, dans les nombreux sondages réalisés à propos de Star Wars , comme l'un des personnages préférés des spectateurs, alors qu'il ne possède aucun des attributs que l'on prête traditionnellement, dans la littérature de science-fiction, aux robots « évolués » ? Il est certes doté d'un aspect plutôt sympathique et rassurant, mais son mode de locomotion est rudimentaire, ses possibilités de préhension ou d'action particulièrement pauvres, ses capacités de communication réduites à des sifflements et bourdonnements incompréhensibles sauf à quelques autres robots, qui sont nécessaires pour décrypter ce qu'il dit, et son « expressivité » ne va pas au-delà d'un clignotement de lampe sur sa face avant. Rien qui puisse réellement, à première vue, déclencher le moindre engouement ! Peut-être faut-il aller chercher ailleurs, alors, ce qui, en dépit de son altérité radicale, rend ce robot si attachant ... et si proche de nous.

La raison essentielle tient à la place qu'il occupe aux côtés des héros du film. Tout en étant très différent d'eux, physiquement et - sans doute - psychologiquement, il apparaît paradoxalement mieux intégré à leur communauté que les autres robots, dont la plupart ne sont bons qu'à servir d'esclaves artificiels. Dans la plupart des scènes où il se produit, ses faibles capacités d'action font qu'il a autant besoin de l'aide des hommes que ceux-ci ont besoin de ses connaissances concernant le monde « électronique », créant de la sorte l'impression troublante d'une égalité qui n'est pas simplement formelle. Son « autonomie » est en fait comparable à l'autonomie dont dispose chacun des êtres vivants présents dans Star Wars , car, bien que capable de prendre des décisions seul, il dépend en grande partie de son environnement social pour pouvoir fonctionner correctement. En ce sens, R2D2 est l'archétype de ce qu'il convient d'appeler un robot socialement situé ou robot social, pour faire court, robot autonome capable d'évoluer et prévu pour fonctionner quelles que soient ses fonctions au sein d' environnements socialisés , c'est-à-dire des milieux façonnés, contrôlés et occupés par les êtres humains, et essentiellement prévus pour eux. Cela sans qu'il ait besoin de « tricher » en jouant, par exemple, de son apparence physique : il est et reste aux yeux de tous un robot qui ne « singe » pas l'homme, à qui il est pourtant possible de conférer une individualité, voire une intentionnalité, aussi naturellement qu'aux autres personnages.

Droïdes de service. Il est possible de distinguer, dans son comportement, quelques-uns des traits fondamentaux qui pourraient servir à caractériser ce qui en fait un robot social. D'abord physiquement situé dans le même monde que ses utilisateurs, en interaction constante avec eux, il se montre capable de réagir et d'agir, avec ses moyens limités, de façon fluide et naturelle, au point qu'aucune de ses actions ne semble « hors de propos » ou déplacée. Il est également capable d'entretenir des relations personnalisées avec les autres personnages, relations qui s'appuient sur l'histoire des interactions qu'il a pu avoir avec eux.

Second point : bien qu'il fasse partie de la catégorie des « droïdes de service », il est parfaitement capable, dans les situations qui l'exigent, d'utiliser les autres protagonistes à son bénéfice. En ce sens, la relation d'instrumentalisation qu'il entretient avec ses « utilisateurs » n'est pas à sens unique : on se sert autant de lui qu'il sait se servir des autres, par exemple quand son état exige des réparations qu'il est incapable d'effectuer seul. Troisième point : son comportement évolue au fur et à mesure des situations auxquelles il est confronté, ce qui montre qu'il est capable d'apprendre, aussi bien par lui-même que par interaction avec les autres personnages. Nulle part, dans les différents films de la saga, ne voit-on ainsi un personnage être obligé de le « programmer » pour une mission particulière, alors que son comportement démontre une plasticité impressionnante. En l'absence de tout dialogue, il semble même capable de reconnaître les intentions des personnages qui l'entourent et d'agir en fonction de ces intentions. Enfin il apparaît, en dépit de son altérité fondamentale, comme parfaitement intégré au monde social qui l'entoure, et pas simplement comme le serait un objet ou un outil un peu sophistiqué. Il a une place à part entière dans le groupe, place reconnue par les autres, qui peut même évoluer en fonction des contextes. Cela démontre une acclimatation de longue date des humains dépeints dans le film à la présence de robots similaires, mais aussi une conscience, de sa part, du ou des rôles qui lui sont implicitement conférés dans un groupe.

Robot aspirateur. R2D2 n'est bien entendu qu'un exemple, qui plus est dans un monde totalement imaginaire, de robot social. Cependant, force est de reconnaître qu'il possède bon nombre des caractéristiques dont il conviendrait de doter les robots de service ou de loisir si nous voulons, un jour, que ceux-ci puissent opérer de façon naturelle et quotidienne dans notre environnement et soient, en dépit de leur autonomie, acceptés et appréciés par leurs utilisateurs de la même façon que ceux-ci les acceptent - et les apprécient - dans une oeuvre de fiction.

Dans le monde beaucoup plus terre à terre de l'industrie, l'adaptation de robots complètement asservis est réalisée a priori .Ils sont capables, une fois placés dans le bon environnement, de fonctionner en complète autarcie sans avoir à percevoir autre chose que ce qui concerne la tâche pour laquelle ils sont conçus. Quant aux robots dits autonomes, prévus pour des missions spécifiques dans des environnements non socialisés exploration, intervention dans des environnements lointains ou hostiles à l'homme, etc., ils sont, eux, conçus de manière à éviter d'avoir à appréhender toute la complexité de leur environnement. Leur comportement repose sur la perception de caractéristiques environnementales dont les propriétés intervalles de valeurs, limites de variation, fréquences de changement sont considérées comme connues de façon fiable. La complexité intrinsèque de leur milieu importe peu ; seule compte la complexité de ce qu'ils perçoivent de ce milieu. Aux yeux de Rocky, la complexité de la planète Mars est très faible : absence ou présence d'obstacles, absence ou présence de roches à filmer, absence ou présence d'une base.

Mais dès lors que des interactions répétées avec des humains, non prévues à l'avance, sont, soit nécessaires, soit inévitables dans le fonctionnement du robot, ces modèles ne sont plus valables1. Comment serait accepté un robot aspirateur autonome qui nécessiterait que les habitations soient conçues pour lui permettre de fonctionner correctement interdiction de déplacer les meubles, circuit immuable, murs peints de certaines couleurs, évacuation des lieux à chaque nettoyage, etc., ou qui ne tiendrait compte de rien d'autre que de la présence ou absence de poussière et ne se mette à fonctionner quand bon lui semble ? L'être humain a ceci de particulier qu'il est, lui, vraiment autonome donc difficilement contrôlable au même titre qu'un objet, que son comportement est souvent imprévisible à moins de percer toute la richesse de ses intentions et qu'il est peu enclin à se montrer coopératif, surtout avec des systèmes technologiques capables de bouleverser ses habitudes. Dans le même temps, cependant, l'être humain constitue une ressource d'une richesse incroyable qui, si elle est correctement exploitée par le robot, peut lui permettre de progresser de manière significative dans la réalisation de ses tâches.

Robots guides. La mise sur le marché, il y a deux ans, du robot Aibo de Sony a ouvert une ère nouvelle, en permettant, par le biais d'un instrument de loisir, de créer des situations de cohabitation entre hommes et robots qu'il est devenu possible d'étudier sur le long terme, tant sur le plan psychologique que sociologique lire l'article de Frédéric Kaplan p. 84. En revanche, le champ d'expérimentation ainsi ouvert reste limité. Aibo n'est déployé, en majorité, que dans des cellules familiales et pas des collectivités plus importantes ou plus variées dont le niveau socioprofessionnel est élevé et qui sont déjà pour la plupart parfaitement acclimatées à la sphère « technologique » sous toutes ses formes.

Plus intéressante est la mise en place des robots guides de musée2 imaginés par l'Institut de robotique de l'université Carnegie Mellon, aux Etats-Unis. Les robots Sage, puis Rhino et Minerva, ont été brièvement expérimentés en 1998 et 1999 respectivement dans le Dinosaur Hall du Carnegie Museum d'Histoire naturelle, au Deutsche Museum de Bonn et au Smithsonian's National Museum of American History. Même si elles ont été limitées dans le temps une ou deux semaines, ces expériences se sont révélées très riches d'enseignements sur le degré d'attention des usagers, leurs attentes, leur curiosité, leur interprétation du fonctionnement du robot, etc. et ont permis de donner naissance à d'autres travaux plus ambitieux, comme NurseBot, aussi à Carnegie Mellon, conçu pour assister les personnes âgées dans leurs tâches quotidiennes3. Dans tous ces travaux, cependant, les résultats obtenus sur l'acclimatation sont quelque peu dénaturés par l'emploi d'un seul et unique robot opérant au sein de groupes humains pour une période de temps assez courte. Il est vraisemblable, dans la perspective de la robotique de service, par exemple, que les usagers seront quotidiennement en contact avec plusieurs robots, qui seront eux-mêmes, sans doute, amenés à interagir les uns avec les autres.

Le projet MICRobES*4, que nous avons mis en place dans notre laboratoire, s'inscrit précisément dans cette perspective. Six droïdes se promènent librement dans les locaux du laboratoire, qui abrite bien d'autres spécialistes que les roboticiens impliqués dans le projet. Ils sont capables de recharger eux-mêmes leur batterie, de se localiser dans l'environnement et d'éviter les obstacles vivants et non vivants, ainsi que les endroits dangereux ascenseurs.... L'expérience a pour objet d'étudier l'évolution des relations hommes/robots dans cet espace partagé. Des sociologues du centre de sociologie de l'innovation de l'Ecole des mines CSI interrogent régulièrement les chercheurs du laboratoire, pour voir comment ils réagissent, à la longue plusieurs mois en présence de cette colonie du troisième type. Plusieurs questions, essentielles au développement d'une robotique sociale, sont abordées dans le cadre de ce projet : une personne réagit-elle de la même manière en présence d'un robot solitaire et d'un groupe de robots ? L'attribution de sens et d'intentionnalité se déroule-t-elle de la même façon ? L'acclimatation ou l'habituation à la présence des robots en est-elle facilitée ? Une grande attention est portée au détail des interactions entre hommes et robots, notamment par le biais de la classification des attitudes qu'adoptent les personnes concernées en présence des robots et sur l'évolution de ces attitudes dans le temps certains ferment leur porte dès qu'ils entendent un droïde arriver....

Concevoir des robots sociaux met ainsi profondément en cause l'orientation purement technologique, presque scientiste, qui est celle de la robotique depuis ses origines. Il n'est, en effet, pas interdit de penser que les problèmes de perception, d'action, de modélisation de l'environnement ou de planification qui se posent à des robots asservis ou complètement autonomes pourront être résolus par le développement incrémental de technologies toujours plus puissantes et robustes. En revanche, il est peu vraisemblable que ces technologies « internes » à la robotique permettent d'aborder facilement des problèmes d'interaction, d'apprentissage, d'acclimatation dont la solution repose, en partie, sur une compréhension fine et une utilisation contrôlée de la façon dont les êtres humains se comportent en présence d'artefacts autonomes ou semi-autonomes. Certes, l'aspect technologique sera toujours nécessaire. Il ne serait pas possible de parler de robots sociaux aujourd'hui sans les avancées spectaculaires réalisées ces dernières années dans le domaine de l'autonomie énergétique, des capteurs, des effecteurs, ou des interfaces d'interaction5,6. Mais, pas plus qu'il n'est possible d'imaginer le développement de robots démineurs dotés de « nez chimiques » sans le concours de chimistes, il ne paraît vraisemblable d'envisager le développement de robots sociaux sans le concours des sciences humaines concernées : sociologie, anthropologie, psychologie, ou éthologie.

Révolution. En définitive, les recherches actuellement menées dans ce domaine consistent à tenter de remettre systématiquement l' homme dans la boucle 7 , c'est-à-dire, par exemple, à considérer que, quel que soit le problème posé au robot, il ne possédera jamais, s'il fonctionne en présence d'êtres humains, qu'une partie de sa solution, l'autre étant entre les mains de ses utilisateurs et échappant, de fait, en partie à ses concepteurs. Cette perspective se traduit, sous ses airs anodins, par une véritable révolution en robotique : l'homme n'est plus un « obstacle » mobile et imprévisible, qu'il convient, au mieux, d'ignorer ou d'éviter, au pire de contrôler par tous les moyens adéquats, mais une ressource qu'il va être nécessaire d'apprivoiser au même titre que les autres ressources « naturelles » un substrat physique pour se déplacer, une station pour se recharger, etc. dont dispose le robot. A la différence près qu'il ne s'agit pas d'une ressource passive et que l'exploiter nous renverra forcément à des questions fondamentales sur notre cognition, individuelle et sociale, auxquelles nous ne savons pas forcément répondre aujourd'hui.

Par Alexis Drogoul et Jean-Daniel Zucker

DOCUMENT larecherche.fr LIEN

LA PEAU

07/05/2016

La peau


par Ursula Lenseele, Daniel Schmitt dans mensuel n°351 daté mars 2002 à la page 50 (2915 mots)


Une simple enveloppe ? Vision ô combien réductrice ! La peau est un organe à part entière. Barrière, mais aussi lieu d'échanges, elle assure des fonctions multiples. Ne va-t-on pas jusqu'à lui attribuer, chez l'homme, le qualificatif de « cerveau étalé » ? Sans compter l'importance sociale que lui confère son exposition aux regards.

Tous les animaux ont-ils une peau ?
Pas exactement : au sens strict, la peau est l'apanage des seuls vertébrés. Pour désigner l'ensemble des tissus qui recouvrent un animal quel qu'il soit, on parlera de téguments. Parmi ces derniers, quelle variété ! Chez les organismes unicellulaires, il s'agit de la membrane cellulaire et du revêtement qu'elle peut sécréter : la paroi de nombreuses bactéries, par exemple, leur confère une forme bien définie. Quant aux invertébrés, leur tégument est une couche de cellules épithéliales, faite de plusieurs types de cellules comme les cellules sensorielles ou les glandes. Elle peut porter des cils, voire des épines, et secréter des revêtements qui vont du manteau muqueux des anémones ou des méduses à la cuticule rigide et articulée des insectes. Cette dernière est en quelque sorte un squelette externe, dur et composé de plusieurs couches de chitine, auquel sont attachés les muscles. Les vertébrés, eux, ont un squelette interne, et c'est leur peau, faite de deux couches principales - épiderme et derme -, qui assure l'interface avec le milieu aquatique ou aérien. Certains vertébrés sont restés marins, d'autres ont conquis le milieu aérien, et leur peau s'est adaptée. Aussi ceux des amphibiens qui sont restés aquatiques ont-ils une peau fine, recouverte de mucus. Leurs congénères terrestres ont au contraire une peau plus épaisse, cornée. Quant aux reptiles, encore plus affranchis de l'eau, leur peau très épaisse va jusqu'à recevoir, parfois, des contributions osseuses du derme. Ils ont, au cours de l'évolution, donné naissance aux oiseaux recouverts de plumes, indispensables à la régulation de la température interne. Enfin, avec la peau élastique des mammifères, foin de plumes et place aux poils, là encore selon une échelle très variable : peau glabre chez les cétacés comme les dauphins, très poilue chez les ours polaires.

La peau : barrière ou lieu d'échanges ?
Contrairement à des idées reçues qui eurent longtemps la vie dure, la peau n'est pas qu'une simple enveloppe : c'est aussi un lieu d'échanges. Certes, elle joue le rôle de contenant en empêchant que les liquides vitaux comme la lymphe ne s'échappent du corps. Chez l'homme, les cellules cornées et le film hydrolipidique - mélange de sueur et de sébum sécrétés par des glandes distinctes - se révèlent, à cet égard, très efficaces. Elle joue également le rôle de barrière immunitaire via certaines de ses cellules, les cellules de Langerhans. Celles-ci, les premières à se trouver au contact d'un micro-organisme infectieux, migrent ensuite vers les ganglions les plus proches pour présenter les antigènes étrangers aux lymphocytes, et les activer. Mais la peau est aussi un lieu d'échanges considérables, absolument vitaux pour certaines espèces. C'est le cas des amphibiens. Même si l'adulte fait l'acquisition de poumons, il garde une capacité à respirer par la peau, héritée du temps où il était larve. Lisse, nue, très fine et recouverte d'un mucus gluant, cette peau laisse pénétrer l'oxygène qui va gagner les vaisseaux sanguins localisés en surface. Elle est aussi perméable à l'eau dans les deux sens. Mais le mucus, qui préserve son humidité, empêche l'évaporation et évite la déshydratation due au vent et au soleil. D'autres animaux utilisent la peau de façon annexe pour respirer. Le turbot, par exemple et plus généralement les poissons plats dépourvus d'écailles, pompe 30 % de l'oxygène dont il a besoin par cette voie ! Faculté qui lui permet de résister à l'appauvrissement du milieu en oxygène, voire à... sa mise hors de l'eau. La peau joue aussi un rôle dans les échanges de chaleur, notamment chez les animaux homéothermes comme les mammifères qui doivent garder leur température constante. Enfin, n'oublions pas la capacité qu'ont les substances lipidiques à franchir cette barrière, propriété qui intéresse au plus haut point l'industrie pharmaceutique : là réside l'intérêt des patchs, dont les molécules diffusent à travers la peau et sont absorbées plus lentement par l'organisme que des médicaments ingérés.

Qu'est-ce que la chair de poule ?
En amont, se trouve le frisson, réponse au froid de la plupart des espèces à sang chaud, dont la température est indépendante de celle du milieu ambiant. La contraction des muscles sous-cutanés provoque alors une augmentation de la température au niveau de la peau. Puis apparaît la chair de poule, résultat de la contraction des muscles horripilateurs situés au niveau du sac dans lequel se trouve le poil. Qui dit contraction, dit gonflement, d'où la petite bosse caractéristique à la surface de la peau. En même temps, le gonflement de ce sac fait que le poil se dresse. Un souvenir du temps où l'homme était beaucoup plus poilu et où, comme d'autres animaux à fourrure et à plumes, il pouvait contrôler l'épaisseur de la couche d'air emprisonnée dans ses phanères en tirant parti de l'érection de sa pilosité pour s'isoler du froid... Fourrure et plumes ne sont pas les seuls moyens mis en place par les homéothermes pour se protéger du froid. N'oublions pas la couche de graisse sous-cutanée ! Elle est primordiale chez les animaux aquatiques comme le phoque.

Pourquoi transpire-t-on ?
Lorsqu'il fait chaud, les animaux à sang chaud cherchent à abaisser la température de leur peau. Les grandes oreilles des éléphants leur sont bien utiles pour se rafraîchir ! Quatre mètres carrés recto verso, parcourus par un important réseau de vaisseaux sanguins : voilà qui représente une considérable surface d'échange avec l'air. C'est donc en battant des oreilles que l'éléphant abaisse sa température sanguine. Un système original, mais loin d'être le plus répandu : chez de nombreuses espèces, on observe un mécanisme de refroidissement par évaporation d'eau. A quel niveau ? Les poumons ou la peau. On parle alors de halètement ou de sudation. L'eau peut aussi provenir de la salive et être répartie sur le corps par léchage comme chez le rat, ou de l'urine, comme chez certains oiseaux tropicaux. L'éléphant encore lui utilise l'eau de son bain, et le nombre important de ses rides cutanées fait que l'humidité y perdure plus que sur une peau lisse. Et la sudation ? Elle n'est utilisée que par quelques mammifères seulement, dont l'homme, les équidés et les camélidés. Avec ses 500 à 1 000 glandes sudoripares/cm2, l'homme détient un record quantitatif et qualitatif. Car, lorsque les glandes sudoripares ne sont présentes qu'à certains endroits bien spécifiques, comme la pulpe digitale chez les chats, la sueur est bien peu efficace en matière de refroidissement... C'est qu'elle a aussi d'autres fonctions. Il y a en effet deux types de glandes sudoripares : les glandes eccrines et les glandes apocrines. Ce sont les premières qui, réparties sur tout le corps, sécrètent une sueur qui forme un film aqueux à la surface de la peau et la protège des agressions. Lorsque la température devient supérieure à 37 °C ou en cas d'effort musculaire intense, c'est cette sueur qui joue le rôle de régulateur thermique. Les glandes apocrines, elles, ne sont localisées qu'en certains points du corps aisselles, aine, anus chez l'homme. La production de sueur par ces glandes ne répond pas à une stimulation thermique mais à des stimuli émotionnels importants ou à des hormones sexuelles. Chez l'homme, leur rôle n'est pas bien connu, mais chez les autres mammifères, elles sont impliquées dans la reconnaissance olfactive entre individus et jouent parfois un rôle dans la sexualité - comme chez le célèbre putois.

La peau se renouvelle-t-elle ?
« Il était un pauvre serpent qui collectionnait toutes ses peaux : l'Homme. » En l'occurrence, Jean Giraudoux avait tort. Car même si l'on n'y pense pas de prime abord, l'homme, comme tous les mammifères, voit sa peau constamment renouvelée ! Ce sont les cellules basales de l'épiderme qui, en migrant, remplacent les cellules mortes en surface, perdues par desquamation. C'est qu'il y a, dans les follicules pileux des mammifères adultes, des cellules souches multipotentes capables d'engendrer toutes les lignées cellulaires épithéliales de la peau. Ce sont elles qui donnent naissance, tout au long de la vie de l'animal, aux cellules basales de l'épiderme, et assurent son renouvellement. Elles, également, qui interviennent dans le processus de cicatrisation. En cas de blessure, la peau est en effet capable de s'autoréparer, soit par la migration de cellules basales de l'épiderme sain, soit par la migration de cellules souches en provenance des follicules pileux. Voilà qui ouvre de nouvelles perspectives dans les cas de cicatrisation difficile. On peut imaginer déposer, sur la plaie, des molécules capables d'orienter ces cellules souches vers leur différenciation en épiderme. Et s'en servir aussi, peut-être, pour reconstruire une peau de qualité chez les grands brûlés.

Tous les animaux ne renouvellent pas leur peau de cette manière progressive. Pour grandir, les reptiles se défont de leur peau lors de la mue. Lors de ce phénomène, les cellules germinatives de l'épiderme se multiplient pour former une nouvelle couche de cellules kératinisées qui va se placer sous l'ancienne. Un liquide visqueux, la lymphe, diffuse alors sous cette dernière. Le passage de la lymphe et l'action d'enzymes créent un espace qui sépare l'ancienne couche cornée de la nouvelle, et l'animal peut alors quitter sa vieille peau. Les tortues et les crocodiliens muent par petits lambeaux, les lézards en plusieurs grands morceaux, les serpents en une seule fois.

Comment et pourquoi fabrique-t-on de la peau artificielle ?
La peau est le premier tissu à avoir été reconstruit en laboratoire. Au cours des années 1970, l'Américain Howard Green dépose des cellules épidermiques dans des boîtes en plastique contenant des milieux nutritifs. Il observe alors que non seulement les cellules ne meurent pas, mais qu'au contraire elles se multiplient pour donner un épiderme stratifié. Les scientifiques parviennent ensuite à mettre en culture d'autres cellules cutanées comme les mélanocytes et obtiennent un épiderme qui ressemble à de la peau d'embryon. Puis une équipe française découvre qu'en plaçant cette peau à l'interface air-liquide une couche cornée faite de plusieurs assises de cellules mortes se forme spontanément. C'est précisément ce type d'épiderme de culture qui est utilisé pour greffer les grands brûlés. Dans un premier temps, un pansement de collagène, qui sert d'équivalent dermique et va boucher les plaies, est placé sur la brûlure nettoyée. Parallèlement, des cellules épidermiques prélevées par biopsie sur des tissus non brûlés sont mises en culture. A partir de deux centimètres carrés de tissu, on obtient en quinze jours une surface totale d'un mètre carré. Les lambeaux d'épiderme sont alors agrafés sur le pansement de collagène. Le derme, lui, se reconstituera de lui-même après plusieurs années.

Mais il est aussi possible de reconstituer, en laboratoire, la peau dans son entier : l'épiderme avec ses différentes cellules kératinocytes, mélanocytes, cellules de Langerhans, le derme avec ses fibroblastes qui vont synthétiser le collagène et l'élastine, des vaisseaux sanguins, des cellules immunitaires et des éléments nerveux. On sait même y mettre des embryons de poils. Cette peau reconstruite avec plusieurs types cellulaires n'est pas utilisée dans les greffes de peau, où l'on ne greffe que de l'épiderme. Elle est mise à profit en cosmétologie et en pharmacologie. Débarrassée de sa couche cornée elle devient, du coup, une muqueuse, elle permet, par exemple, de tester la pénétration du virus du sida et l'efficacité des médicaments antiviraux. Dans le domaine des allergies, cette peau artificielle permet d'évaluer les réactions allergiques cutanées à divers produits et, dans le cas de l'eczéma, de tester différentes solutions pour éviter que les cellules de Langerhans ne migrent vers les ganglions et ne déclenchent la réaction allergique. Par ailleurs, tout ce que l'on apprend sur la reconstitution cutanée sert à élaborer des protocoles de reconstitution d'autres muqueuses ou d'autres épithéliums, comme celui des intestins.

Le contact est-il essentiel ?
La peau est l'organe du toucher, le deuxième sens après la vue en termes d'informations traitées par le cerveau. Ce sont les terminaisons des fibres nerveuses situées dans la peau, les récepteurs sensoriels, qui vont réagir à la pression, à la température ou à la douleur. Toutes les parties du corps n'ont pas la même sensibilité car elles ne possèdent pas le même nombre de récepteurs tactiles. Chez l'homme, ces récepteurs sont plus nombreux au niveau de la paume des mains, de la pulpe des doigts, et du visage, qu'au niveau du dos. Ces récepteurs vont traduire, en ce qui concerne le toucher, l'intensité, la force et la durée de la pression qu'ils subissent. L'information est ensuite transmise au cortex cérébral, au niveau de l'aire sensitive corticale qui est la projection précise de tous les points du corps. Le cerveau élabore alors une réponse au stimulus détecté par les récepteurs tactiles.

Le toucher est un sens vital, qu'il soit manuel ou autre. C'est, par exemple, grâce à un léchage intensif que certains animaux mettent en route les fonctions vitales de leur progéniture. Mais le toucher est essentiel dès avant la naissance : les contacts in utero sont indispensables aux petits des mammifères. Le psychologue américain Harry Harlow, spécialiste du développement et du comportement humain, avait démontré, dans les années 1960, l'importance du contact chez les bébés singes. Les contacts physiques permettent au prématuré de développer et de structurer les connexions nerveuses de l'encéphale et l'amènent ainsi au même niveau de développement que le bébé né à terme. Le contact cutané représente, de plus, une forme de développement de l'identité. Lors d'hospitalisations prolongées, la privation du contact physique avec la mère et le manque de stimulus peuvent plonger l'enfant dans un véritable état dépressif. Plus tard, le toucher continue à avoir une grande importance : il acquiert notamment une fonction sociale, qu'illustre par exemple la poignée de main. Cette fonction sociale n'est pas l'apanage des primates. On la retrouve, sous une forme ou une autre, chez nombre d'animaux, les orques, par exemple, à la peau très sensible. Lors de la parade nuptiale, ils se frottent contre les galets. Cela n'est pas signe de démangeaisons dues à de quelconques parasites dont ils essaieraient de se débarrasser, mais fait partie du rituel amoureux.

La peau reflète-t-elle nos états d'âme ?
Peau et système nerveux ont une origine embryonnaire commune, puisqu'ils proviennent tous deux de l'ectoderme. En quelque sorte, la peau est un peu comme un « cerveau étalé ». Sous l'angle neurobiologique, elle a gardé quelques propriétés du système nerveux. Et sous l'angle psychanalytique, elle pourrait révéler des troubles psychologiques plus ou moins enfouis dans l'inconscient.

C'est l'observation de l'évidence d'un lien entre certaines maladies cutanées et le stress psoriasis, acné... qui a relancé, ces dernières années, la recherche de liens entre peau et système nerveux. Comme la peau est innervée, on a réalisé qu'elle renfermait des neuromédiateurs dès la découverte de ceux-ci. Mais, jusqu'à une date récente, on leur avait conféré un rôle uniquement sensitif ou neurovégétatif. Ce n'est que depuis une vingtaine d'années qu'on a commencé à comprendre que les fibres nerveuses sécrètent des neuromédiateurs dans des circonstances variées, et qu'ils jouent un rôle dans l'inflammation, dans l'immunité et dans toutes les fonctions cutanées. Puis on a découvert, il y a moins de dix ans, que les cellules cutanées produisaient elles aussi des neuromédiateurs. Aujourd'hui, on sait que tous les types de cellules de la peau en sont capables. Prudence cependant, car pour l'instant, ces résultats n'ont été obtenus qu' in vitro. In vivo, l'incertitude demeure : quand et comment y a-t-il production ? Une relation difficile à étudier, en raison de l'instabilité des neuromédiateurs.

Aujourd'hui, les chercheurs savent que le système nerveux contrôle de nombreuses fonctions cutanées et que des anomalies de ce contrôle sont à l'origine de maladies cutanées ou vont aggraver ces maladies. Certaines maladies de peau peuvent donc avoir une composante psychosomatique, qui doit être recherchée. Si elle est diagnostiquée, la prescription de psychotropes ou une psychothérapie peuvent être un complément utile au traitement dermatologique. L'état de la peau serait donc le reflet de nos agitations. Ce type de recherche présente un grand intérêt pour l'industrie. Peut-on rêver qu'un jour l'application d'une pommade suffira à nous déstresser ?

La peau est-elle un objet symbolique ?
La peau humaine est un organe visible et, comme tel, un élément essentiel du paraître. Elle est le support de certaines formes de communication entre les hommes, et entre les hommes et leurs dieux, notamment par la réalisation des tatouages, pratique universelle vieille de 40 000 ans. Les tatouages sont associés à de multiples religions : c'est un moyen de dialogue avec le monde des divinités, une protection contre les mauvais esprits... Ce rituel se différencie de la scarification, incision qui aboutit à une cicatrice en creux ou en relief, et sculpte la peau foncée alors que le tatouage utilise les pâleurs de la peau claire. Les scarifications sont notamment réalisées dans les rites de passage à l'âge adulte. Le tatouage pratiqué aujourd'hui en Occident se dégage de toute symbolique religieuse, mais participe au langage social. Langage qui inclut aussi le maquillage, l'usage du parfum, la coiffure... ou le bronzage, qui a pris son essor au XXe siècle lorsqu'il a cessé d'être la preuve de l'obligation de participer aux travaux paysans pour devenir le témoin de la capacité du « bronzé » à se payer des vacances au soleil.

La peau joue un autre rôle extrêmement important du point de vue du paraître : il est le premier organe à montrer des signes de vieillissement. Car avec l'âge, les fibroblastes synthétisent moins de collagène, et les fibres élastiques cessent de se former après cinquante ans. La lutte contre le vieillissement cutané est presque aussi vieille que les rides elles-mêmes : elle est déjà mentionnée sur les papyrus égyptiens !

Par Ursula Lenseele, Daniel Schmitt

DOCUMENT larecherche.fr LIEN

MUSIQUE CONTEMPORAINE

05/05/2016

LIEN STOCKHAUSEN

LE SANG

29/04/2016


Le sang


back to basic - dans mensuel n°327 daté janvier 2000 à la page 66 (2969 mots) | Gratuit
Chargé de symboles ambivalents, de vie et de mort, le sang oxygène, nourrit, nettoie et défend nos tissus. Il est indissociable de la moelle osseuse, qui le renouvelle. Elle déverse tous les jours des milliards de cellules dans ce fluide vital. Moelle et sang forment un monde très dynamique, qui évolue et se transforme selon les besoins.

Pourquoi le sang est-il si vital ?
Chasseurs, mais aussi proies, nos ancêtres savaient bien s_r que le sang, c'est la vie. En témoignent des bisons tachés de rouge sur les grottes du Paléolithique. Mais il fallut attendre le XVIIe siècle et l'inventeur néerlandais du microscope, Antonie Van Leeuwenhoek, pour en découvrir les premiers globules, les rouges. Quant aux principales fonctions du sang et de ses éléments, c'est tout au long du XIXe siècle qu'elles commencèrent peu à peu à être élucidées. Et ce n'est pas fini...

Fluide vital pulsé par le coeur au long des 200 km de l'arborescence des vaisseaux, le sang irrigue tous les tissus et les organes, les nourrit, les nettoie, les défend. Au travers des capillaires, il fournit aux cellules l'oxygène et le glucose qu'elles br_lent pour en tirer de l'énergie. Prenant le relais du tube digestif, il leur distribue les nutriments indispensables à leur métabolisme. A lui seul, par exemple, notre cerveau consomme 20 % de l'oxygène apporté par le sang. Au passage, ce dernier récupère le gaz carbonique, qu'il libère dans les poumons, et les déchets du fonctionnement cellulaire, qu'il évacue vers les reins. Il régule les échanges de sels entre les tissus de l'organisme, assurant ainsi une bonne répartition de la pression entre les membranes cellulaires.

Du sang dépendent aussi les défenses de notre organisme à l'ère du sida, qui l'ignore encore ?. Il dispose d'une équipe de spécialistes - bombardiers, tueurs, épurateurs... - qui, en temps normal, réagissent dès que se présentent bactéries, virus, parasites, une cellule anormale, voire un allergène*...

Le sang assure lui-même la surveillance et la réparation de son circuit. En cas de blessure d'un vaisseau, il répare la brèche. Loin d'être une simple suspension de cellules, il véhicule aussi d'innombrables molécules d'information - des hormones, des messagers chimiques.

Quant au vaisseau sanguin, il est loin d'être un tuyau inerte : sa surface sensible, tactile, est très active. Elle régule les passages des nutriments et des cellules de défense, échange aussi des molécules messagères avec le sang. Respiration, immunité, réparation, nutrition, communication, ces cinq fonctions majeures font bien du sang un organe aussi primordial que le cerveau ou le coeur.

De quoi est-il composé ?
Un homme de 70 kg a cinq litres de sang, une femme en a quatre. Un peu plus de la moitié est un liquide transparent de couleur paille, le plasma. Le plasma c'est surtout de l'eau, qui véhicule des sels minéraux calcium, sodium, magnésium, potassium..., le sucre, des molécules messagères - hormones, interleukines* - et leurs protéines de transport. Il y a 70 g de protéines par litre de sang. L'albumine, qui retient l'eau comme une éponge, est la plus abondante. Les immunoglobulines les anticorps participent à la défense immunitaire. D'autres protéines apolipoprotéines transportent les graisses ou encore interviennent, comme le fibrinogène, dans la coagulation.

Bien que liquide, le sang est pour les biologistes un tissu très organisé, dans lequel circulent de nombreuses cellules. Les globules rouges, ou hématies, sont les outils de notre respiration. Nous en avons quatre à cinq millions par mm3 de sang. Ces disques biconcaves, de 7 à 8 micromètres mm de diamètre, circulent dans les vaisseaux où ils restent confinés, empilés comme des rouleaux de pièces de monnaie. Les hématies n'ont pas de noyau. Ce sont des sacs d'hémoglobine, un pigment comportant du fer, qui les colore et transporte l'oxygène qu'il capte et relâche facilement. Leur morphologie et la structure de leur membrane confèrent aux hématies solidité, élasticité et capacité de déformation, indispensables pour pénétrer dans les capillaires les plus fins. Enfin, cette membrane est hérissée de protéines sucrées particulières, déterminant l'appartenance aux groupes sanguins.

Nous avons beaucoup moins de globules blancs, les spécialistes de la défense immunitaireI. Une goutte de sang en contient de 4 à 8 000/mm3. Il s'agit d'une vaste famille de " vraies " cellules possédant un noyau, qui peuvent s'infiltrer dans les tissus. Les globules blancs polynucléaires en fait, ils n'ont qu'un noyau, mais de forme biscornue sont chargés de détruire les envahisseurs étrangers, surtout les bactéries. Les monocytes activés appelés alors macrophages sont des épurateurs. Ils phagocytent et dégradent presque tout : les micro-organismes infectieux, les cellules abîmées, les toxines... Les macrophages ont aussi une fonction immunitaire spécifique, car ils présentent les antigènes* à des cellules appartenant au troisième type de globules blancs, les lymphocytes, plus précisément les lymphocytes T T pour thymus, un organe lympho_de. Ces derniers sont préposés à la surveillance des virus et des tumeurs, et tuent les cellules leur présentant un antigène étranger. D'autres, les lymphocytes B B pour la bourse de Fabricius*, produisent les immunoglobulines : les anticorps circulants. La membrane des lymphocytes - tout comme celle de la plupart de nos cellules - porte des marqueurs essentiels, dits HLA*. Les globules blancs interagissent en permanence, grâce à des signaux chimiques.

Enfin, les plaquettes sont les acteurs de l'hémostase, autrement dit de l'ensemble des processus qui permettent l'arrêt du saignement. Ce sont les plus petites cellules du corps leur diamètre : 1 à 2 mm.

En principe, on compte 150 000 à 400 000 plaquettes/mm3 de sang. Ces cellules minuscules ont une structure complexe et possèdent des fonctions adhésives et contractiles. S'il y a rupture de la paroi d'un vaisseau, elles se collent dessus et colmatent la brèche.

Comment se renouvelle-t-il ?
Comme tous nos organes, le sang, ou plutôt ses cellules, vieillissent et meurent. Une hématie vit environ trois mois, une plaquette une dizaine de jours. La grande majorité des globules blancs ne vit que quelques jours. Seuls certains, les lymphocytes T à mémoire, peuvent perdurer pendant des mois ou des années.

Il y a donc un renouvellement constant, finement régulé, des cellules. Ce qui est original, c'est que le sang ne les produit pas lui-même. Chez le foetus, c'est le foie et la rate qui s'en chargent. Chez l'adulte, elles naissent et se différencient en permanence dans la moelle osseuse. Seule exception, la spécialisation des lymphocytes T se déroule dans le thymus. Ainsi, nos os - fémurs, humérus, clavicules, côtes, sternum et bassin - produisent continuellement du sang nouveau. Tout débute avec une cellule souche, dite multipotente car elle peut donner naissance à toutes les lignées de cellules sanguines. Puis se succèdent différentes étapes, au cours desquelles les globules formés, encore immatures, acquièrent peu à peu leur spécialité. Le destin de toutes ces cellules est étroitement contrôlé par des molécules comme les facteurs de croissance ou les interleukines. Une hormone, l'EPO l'érythropo_étine donnée aux insuffisants rénaux... et prise par les sportifs dopés, stimule la production des globules rouges. Ceux-ci, avant d'être déversés dans le sang, expulsent leur noyau. Le tout prend une petite semaine pour les hématies, deux semaines pour les globules blancs.

La naissance des plaquettes est étonnante. Le précurseur n'engendre pas deux cellules filles. Il duplique son contenu en ADN sans se diviser. Il devient une cellule géante ayant non pas deux lots de chromosomes, mais 4, 8, 16, 32, voire 64. Cette cellule finit par avoir un aspect de pieuvre. Ses multiples bras de cytoplasme se fragmentent ensuite pour donner une quantité de plaquettes.

Il arrive que la moelle ne produise pas assez de cellules, ou qu'elle soit envahie par des cellules tumorales. Pour pallier ces troubles très graves, on donne au malade des cellules souches, provenant de la moelle, ou du sang dans ce cas, on cultive d'abord les rares cellules souches circulantes, ou encore extraites du sang de cordon ombilical, plus riche en cellules souches. Par ailleurs, on découvre que la moelle comme le système nerveux abrite d'autres cellules souches, appelées cette fois totipotentes, car elles peuvent générer n'importe quel type cellulaire. La moelle aurait donc aussi une fonction de régénération des tissus.

Que se passe-t-il lorsque nous nous blessons ?
Lors d'une blessure, le vaisseau sanguin lésé se contracte. Très vite, débute une première étape que les biologistes appellent la formation du clou plaquettaire. Les plaquettes se collent sur la lésion et changent de façon spectaculaire. Elles se collent les unes aux autres et forment un bouchon, d'abord un peu lâche, puis de plus en plus dense. Car grâce aux substances qu'elles sécrètent, elles recrutent d'autres plaquettes. Pour un petit vaisseau sanguin, cela peut suffire.

En revanche pour des vaisseaux plus larges, se met en place une deuxième étape, la coagulation, la prise en masse du sang. Elle est encore plus complexe. De nombreuses molécules entrent en jeu : une cascade d'enzymes, des facteurs de coagulation et des anticoagulants... Pour simplifier, le plasma contient une protéine soluble, le fibrinogène. Sous l'action d'une enzyme, la thrombine, il se transforme en fibrine insoluble. Les brins de fibrine renforcent le clou plaquettaire et emprisonnent les cellules sanguines, formant le caillot. Après la cicatrisation, ce réseau de fibrine est détruit par d'autres enzymes, et le caillot est dégradé : c'est la fibrinolyse. On voit bien pourquoi tout déséquilibre entre coagulation et fibrinolyse est dangereux : trop rapide, la coagulation peut conduire à la thrombose un caillot qui bouche les vaisseaux, trop lente, et c'est l'hémorragie qui guette.

Qu'arrive-t-il en cas de pénurie de cellules sanguines ?
Certains cancers, leurs traitements, des virus, des maladies génétiques ou auto-immunes, les médicaments... peuvent provoquer ces pénuries, appelées cytopénies. Quant à leurs conséquences, elles dépendent évidemment du type cellulaire qui fait défaut.

Les anémies sont dues à une baisse du taux normal d'hémoglobine, en général associée à une diminution du nombre de globules rouges circulants. Une personne anémiée est pâle, s'essouffle, et l'effort la fatigue beaucoup. Les causes les plus fréquentes d'anémies sont les hémorragies, et donc les pertes en fer, les inflammations qui provoquent des troubles du métabolisme du fer, les carences nutritionnelles... Dans le cas le plus simple et le plus courant d'anémie, celle qui est provoquée par une hémorragie, on donne du fer au patient.

Quant aux autres cytopénies, touchant les globules blancs ou les plaquettes, une de leurs causes importantes est l'insuffisance de la moelle. Manquer de globules blancs expose à des infections sévères, et manquer de plaquettes, nous l'avons vu, provoque des hémorragies. Certaines de ces pathologies peuvent être traitées par la greffe de moelle osseuse.

Le sang peut-il devenir cancéreux ?
Oui et non : en fait, ce ne sont pas les cellules sanguines qui deviennent tumorales, mais celles de la moelle osseuse. Les leucémies* résultent d'un blocage de la différenciation des cellules souches : immatures et devenues immortelles, elles s'accumulent dans la moelle, le sang, la rate, le foie et les ganglions. Selon l'étape bloquée, il y a donc de nombreux types de leucémies. Elles ont d'ailleurs joué un rôle essentiel dans la compréhension des mécanismes du cancer. La plupart des anomalies des gènes impliqués dans les cancers ont d'abord été caractérisées dans les leucémies. On comprend donc pourquoi on traite les leucémies comme les tumeurs solides chimiothérapie, radiothérapie. Avec l'atout supplémentaire de pouvoir remplacer la moelle malade par une greffe.

Ce rôle pilote des leucémies en cancérologie se poursuit avec la génomique. L'étude des chromosomes et l'établissement de la carte d'identité moléculaire de ces maladies permettent d'identifier l'anomalie biologique responsable et de définir un traitement spécifique. Un exemple emblématique est celui de la leucémie dite à promyélocytes. Elle a pour origine un remaniement chromosomique qui rapproche deux gènes de façon anormale, conduisant à la synthèse d'une protéine dite de fusion. L'un de ces deux gènes code le récepteur d'un dérivé de la vitamine A, l'acide rétino_que. D'où l'idée de donner aux malades de l'acide rétino_que qui détruit la protéine de fusion et rétablit la capacité de différenciation des cellules de la moelle. C'est ainsi qu'est apparu, il y a quelques années, le premier, et le seul, traitement ciblé et efficace d'un cancer.

Comment a-t-on découvert les groupes sanguins ?
Au XVIIe siècle, on tenta beaucoup de transfusions, souvent mortelles. Au point que Louis XIV interdit cette pratique. Bien après, en 1900, à Vienne, le jeune Karl Landsteiner prélève le sang de ses collaborateurs. Il mélange le sérum des uns avec les globules des autres et s'aperçoit qu'il arrive que le sérum agglutine les globules rouges, ces amas pouvant provoquer les accidents transfusionnels. Il venait de découvrir les premiers groupes sanguins, le système ABO. On comprend ensuite assez vite que les humains se répartissent en quatre groupes, selon qu'ils possèdent l'antigène A, le B, les deux antigènes A et B, ou aucun d'entre eux, un groupe appelé O en fait, pour ce dernier, il existe aussi un antigène, appelé H. Nous avons tous des anticorps dirigés contre les antigènes des autres groupes que le nôtre. Ces anticorps sont dits naturels, car ils se forment très tôt dans la vie, notamment parce que des bactéries de la flore intestinale portent ces antigènes ABO.

C'est encore K. Landsteiner qui découvrit en 1939 le facteur rhésus, après avoir cette fois fait son mélange avec les globules rouges d'un macaque rhésus. L'un de ses élèves fit le lien entre ce facteur et la très grave maladie hémolytique du nouveau-né. Cette maladie est due à une incompatibilité entre les facteurs rhésus de la mère et de son enfant. On sait maintenant que le système rhésus comprend de nombreux sous-groupes. Une troisième étape importante est la découverte par Jean Dausset, en 1952, du complexe majeur d'histocompatibilité, ou CMH. On l'appelle aujourd'hui le système HLA. Ce sont des marqueurs présents sur les globules blancs, mais aussi sur les cellules de nos tissus, dont l'importance est capitale lors des greffes. Le système HLA est d'une grande complexité et définit notre identité : on connaît aujourd'hui six cents millions de combinaisons HLA. En fait, il existe des dizaines d'autres systèmes de groupes sanguins. Mais ils ne sont pas gênants pour les transfusions.

La transfusion sanguine est-elle s_re aujourd'hui ?
De grands progrès ont en effet été réalisés en France depuis le début des années 1990, avec la réorganisation totale du système de transfusion. Différentes techniques chauffage des produits, dépistage des virus dans les dons de sang... permettent d'éviter au maximum la contamination des produits de transfusion. Mais en médecine, comme dans d'autres domaines, le risque zéro n'existe pas. On ne connaît pas, par exemple, tous les virus transmis par le sang. Et certains se posent des questions à propos du prion, l'agent incriminé dans la maladie de la " vache folle ". Ainsi, par mesure de précaution, les Etats-Unis, le Canada, et tout récemment la Nouvelle-Zélande, ont-ils décidé d'exclure du don de sang les personnes ayant séjourné au Royaume-Uni au plus fort de la crise.

Peut-on faire du sang artificiel ?
Non, on ne sait pas vraiment fabriquer du sang. Ses fonctions et ses constituants sont beaucoup trop complexes. Toutefois, les risques infectieux liés aux transfusions ont poussé les chercheurs à trouver des transporteurs d'oxygène pour remplacer les globules rouges. Sans réel succès. Plusieurs compagnies ont mis au point des solutions d'hémoglobines stabilisées par modification biochimique, dont certaines sont en développement clinique. Mais elles posent des problèmes d'effets secondaires mal élucidés. Une deuxième stratégie consiste à développer des molécules chimiques. La principale d'entre elles est un perfluorocarbone PFC. Ce produit est autorisé aux Etats-Unis et au Japon dans des cas précis réparation des artères coronaires, urgence pour des personnes refusant la transfusion. Avec les techniques de génie génétique, on a réussi à produire des protéines sanguines de substitution. C'est le cas des facteurs VIII et IX de coagulation, destinés au traitement de l'hémophilie. Mais finalement la façon la plus efficace de compenser une forte perte de sang, accidentelle ou survenue lors d'une opération chirurgicale, reste la transfusion. Et la seule solution entièrement s_re et efficace est l'autotransfusion : donner son propre sang, en prévision d'une opération.

Tous les animaux ont-ils du sang ?

Non. Par exemple, les cellules des animaux très simples, comme les éponges ou les anémones de mer, assurent elles-mêmes leur approvisionnement en oxygène et nutriments. Ce n'est que lorsque les animaux deviennent plus grands et plus complexes que se met en place au cours de l'évolution un système d'irrigation facilitant le transport de ces substances aux cellules enfouies au plus profond de l'organisme. Et encore, l'appareil circulatoire ne devient-il complètement clos à quelques exceptions près que chez les vertébrés. Or la majorité des animaux sont des invertébrés 95 % des espèces. Les zoologistes appellent leur sang l'hémolymphe. La plupart du temps, les pigments transporteurs d'oxygène sont en solution dans l'hémolymphe ; parfois, ils sont protégés dans des cellules. Seuls les insectes n'ont pas de pigments respiratoires : leurs trachées très ramifiées apportent directement l'oxygène aux différents organes.

L'hémoglobine est le plus familier de ces pigments : avec sa couleur rouge typique, elle est présente dans la plupart des embranchements. Mais on trouve une hémolymphe à pigment vert chez des vers segmentés et un pigment bleu chez certains mollusques et arthropodes.

Que sait-on de l'évolution des hémoglobines ou des hématies ? Peu de chose. A l'origine, l'hémoglobine pourrait avoir été une molécule chargée de piéger l'oxygène, toxique pour des organismes anaérobies. En témoigne celle des nématodes qui se lie avec une grande affinité à l'oxygène, mais le libère difficilement.

Par ailleurs, en dehors des mammifères, tous les vertébrés - poissons, amphibiens, reptiles et oiseaux - ont des globules rouges avec noyau. La perte de ce noyau au cours de l'évolution a été interprétée comme un moyen d'améliorer la souplesse des hématies pour se faufiler dans les capillaires et d'augmenter leur stock d'hémoglobine donc d'augmenter la capacité du sang à se charger en oxygène. Cette mutation serait apparue quand se sont séparés les dinosaures ancêtres des oiseaux et les mammifères. Seules exceptions connues à cette règle chez les vertébrés, les larves d'anguille et une famille de poissons de l'Antarctique au nom barbare.

DOCUMENT larecherche.fr LIEN

CELLULES SOUCHES

23/04/2016

Des cellules souches qui renforcent la mémoire


palmarès - par Marine Cygler dans mensuel n°471 daté janvier 2013 à la page 50 (1495 mots)
On ignorait à quoi servaient les nouveaux neurones qui se forment dans le cerveau des mammifères adultes. Une équipe de l'Institut Pasteur vient de prouver que certains d'entre eux améliorent la mémoire et l'apprentissage olfactifs.

Des milliers de nouveaux neurones apparaissent chaque jour dans le cerveau adulte. Décrit chez le canari au début des années 1980, ce phénomène de neurogenèse a ensuite été mis en évidence chez les rongeurs puis chez l'homme au cours des années 1990. Cette découverte a rendu caduque l'idée selon laquelle le nombre de neurones était maximal à la naissance, et ne pouvait que décroître ensuite.

Mais à quoi ces nouveaux neurones servent-ils ? On suspectait qu'ils interviennent dans l'apprentissage et la mémorisation. Pierre-Marie Lledo et ses collègues de l'Institut Pasteur et du CNRS viennent de le prouver : chez la souris, les nouveaux neurones améliorent la capacité des animaux adultes à discriminer des odeurs inconnues très proches, et à s'en souvenir [1].

Zones germinatives
Dans le cerveau des mammifères adultes, les nouveaux neurones apparaissent dans deux zones : le bulbe olfactif et l'hippocampe [fig. 1]. Ils descendent de cellules souches situées à plus ou moins grande distance, dans deux zones « germinatives » bien délimitées. Lorsqu'elles se divisent, ces cellules souches produisent chacune une nouvelle cellule souche et une cellule appelée précurseur, qui se différencie en neuroblaste. Ceux-ci entament une migration à l'issue de laquelle ils se différencient en neurone. De leur zone germinative au bulbe, les neuroblastes parcourent 4 millimètres chez la souris, et 3 centimètres chez l'homme !

Or, le bulbe olfactif et l'hippocampe ont un point commun : ils sont impliqués dans les processus mnésiques. Le bulbe olfactif joue un rôle essentiel dans la mémoire olfactive. Tandis que l'hippocampe est un acteur central de la mémoire épisodique, celle qui correspond aux épisodes personnellement vécus par un individu à un moment et en un lieu précis.

Taux de survie
« Le bulbe olfactif et l'hippocampe jouant tous deux un rôle important dans une forme ou une autre de mémoire, il était logique de supposer que les néoneurones adultes intervenaient dans ce processus cognitif », explique Serge Laroche, du centre de neurosciences de l'université Paris-Sud, spécialiste de l'hippocampe. Au début des années 2000, cette hypothèse a été renforcée par différents travaux. Par exemple, lorsque des souris étaient élevées dans un environnement enrichi en odeurs, leur bulbe olfactif acquérait deux fois plus de nouveaux neurones que celui de souris élevées dans des conditions standards, et leur mémoire olfactive était bien meilleure [2]. « Mais il ne s'agissait que d'une corrélation, souligne Serge Laroche. Ces résultats ne prouvaient pas un lien de cause à effet. »

Comment mettre en évidence le rôle des nouveaux neurones ? Différents travaux indiquaient que, chez le rongeur, seule une partie d'entre eux survivait. Si l'on arrivait à comprendre pourquoi, peut-être cela fournirait-il aussi une indication quant à leur rôle. Aussi l'équipe de Pierre-Marie Lledo s'est-elle lancée sur cette piste.

« Entre 2002 et 2006, nous avons obtenu différents résultats montrant que le taux de survie des néoneurones augmente quand la souris vit dans un environnement enrichi sur le plan olfactif », indique Pierre-Marie Lledo. Tout portait donc à croire que la survie des nouveaux neurones dépendait de l'activité sensorielle, donc de la stimulation des détecteurs sensoriels situés au niveau de la muqueuse olfactive. « Mais après avoir réalisé des tests de comportement en confrontant les souris à différentes odeurs présentées dans différents contextes, poursuit Pierre-Marie Lledo, nous avons pris conscience que l'activité sensorielle ne suffisait pas. En fait, la survie des néoneurones augmentait quand les souris se trouvaient dans un contexte d'apprentissage olfactif. Par exemple, lorsqu'elles devaient apprendre à discriminer des odeurs similaires. »

En parallèle, d'autres équipes avaient montré que la capacité à discriminer des odeurs augmentait lorsque certaines cellules du bulbe olfactif étaient inhibées. Ces cellules inhibées portent le nom de cellules mitrales. Ce sont elles qui reçoivent les messages sensoriels provenant de la muqueuse olfactive, et qui les transmettent au cortex. Quant aux neurones qui les inhibent, il s'agit essentiellement de neurones appelés « cellules granulaires ». « Or, il se trouve que la plupart des neuroblastes qui atteignent le bulbe olfactif se différencient en cellules granulaires, explique Pierre-Marie Lledo. Nous avons donc émis l'hypothèse que ces cellules granulaires nouvellement formées seraient à l'origine des capacités de discrimination accrues. »

Facultés d'apprentissage
Les neurobiologistes de l'Institut Pasteur ont alors entrepris de réaliser des tests comportementaux tout en stimulant spécifiquement les nouvelles cellules granulaires, et seulement elles. Ils ont pour cela utilisé la méthode la plus précise qui soit à l'heure actuelle : l'optogénétique. Elle consiste à injecter dans des cellules un gène codant une protéine sensible à la lumière, ce qui permet de stimuler ensuite ces cellules par un flash lumineux. En l'occurrence, les chercheurs ont injecté un gène codant une protéine sensible à la lumière bleue dans les neuroblastes en cours de migration vers le bulbe, et ont implanté une diode électroluminescente dans ce dernier. Quand la diode électroluminescente émettait de brefs flashs de lumière bleue (de 5 millisecondes), les néoneurones - et eux seuls - étaient activés.

Dans un premier temps, les chercheurs ont vérifié que la majeure partie des cellules activées par le flash lumineux était bel et bien des cellules granulaires nouvellement formées. Puis ils ont étudié les facultés d'apprentissage de souris adultes réparties en deux groupes. Dans l'un, les souris étaient appareillées avec une diode électroluminescente permettant de stimuler les néoneurones. Dans l'autre, elles ne l'étaient pas.

Il s'agissait pour toutes ces souris d'apprendre à distinguer deux odeurs, et à se comporter différemment en fonction de celle qui leur était présentée : aller chercher une récompense lorsqu'on les mettait en présence de l'une, et ne pas bouger lorsque c'était l'autre. Leur capacité à apprendre était évaluée par le nombre de fois où il fallait leur présenter ces deux odeurs avant qu'elles parviennent à adopter systématiquement le bon comportement.

Une première expérience a consisté à leur présenter deux odeurs très différentes, comme la menthe et l'anis. Les animaux devaient apprendre à aller chercher une récompense en présence de menthe, et à ne pas réagir en présence d'anis. Cette tâche est facile : les animaux n'ont besoin que de quelques essais pour y parvenir. Dans la seconde expérience, les deux odeurs à distinguer étaient cette fois des odeurs semblables : citron ou citronnelle. La tâche d'apprentissage était donc bien plus difficile.

Que s'est-il passé ? Lorsque les odeurs présentées étaient très différentes - menthe et anis -, tous les animaux apprenaient au même rythme, que les néoneurones soient activés ou non. En revanche, lorsque les odeurs présentées étaient similaires, les souris dont les néoneurones étaient activés par le flash lumineux ont appris à les distinguer bien plus rapidement que les autres souris. Douze essais leur ont suffi, contre 28 essais pour leurs congénères. « Les néoneurones facilitent donc l'apprentissage de la tâche la plus difficile », souligne Pierre-Marie Lledo.

Mémoire renforcée
Ce n'est pas tout. Les chercheurs ont également testé la mémoire olfactive de leurs deux groupes de souris : cinquante jours après l'apprentissage initial, les animaux ont dû refaire l'exercice de discrimination des odeurs. Résultat, les souris dont les nouveaux neurones avaient été stimulés pendant l'apprentissage ont mieux distingué les odeurs proches que les souris non stimulées. « En cela, les néoneurones du bulbe se rapprochent de ceux de l'hippocampe, commente Serge Laroche. L'équipe de Susumu Tonegawa, du MIT, aux États-Unis, a en effet montré, en 2012 également, que les néoneurones de l'hippocampe facilitent la distinction entre deux souvenirs proches [3]. »

Les biologistes de l'Institut Pasteur sont toutefois allés plus loin. La fonction cognitive des néoneurones étant identifiée, ils voulaient comprendre ce qui se passait sur le plan cellulaire. Aussi ont-ils entrepris d'enregistrer l'activité des cellules cibles des néoneurones, les cellules mitrales, pendant que les souris réalisaient les tests comportementaux. L'objectif était d'étudier la façon dont ces cellules mitrales réagissaient lorsque les néoneurones étaient stimulés. Ils ont alors constaté que les néoneurones ne se contentaient pas d'inhiber les cellules mitrales : ils les inhibaient de façon synchrone, à la manière d'un chef d'orchestre qui impose un silence à l'ensemble des instruments.

Comment expliquer que cette inhibition améliore la capacité à distinguer des odeurs proches ? Une hypothèse se dessine. Elle découle d'un constat : les cellules mitrales émettent un signal vers le cortex même lorsqu'elles ne sont pas stimulées par les neurones olfactifs. Certes, ce signal est faible. Mais il n'en est pas moins présent, formant une sorte de « bruit de fond ». S'il n'est pas gênant lorsque les cellules mitrales transmettent les signaux bien distincts induits par des odeurs très différentes, il le devient lorsqu'il s'agit de transmettre les signaux semblables induits par des odeurs similaires. « L'ensemble de nos données laisse penser que les néoneurones inhibent les cellules mitrales qui ne produisent que du bruit de fond, explique Pierre-Marie Lledo. Par contraste, les signaux émis par les cellules mitrales activées par les neurones sensoriels ressortiraient donc plus nettement, permettant ainsi de transmettre un signal clair et cohérent au cortex. » L'hypothèse est en cours d'investigation.

Par Marine Cygler

DOCUMENT larecherche.fr LIEN

LES MOUVEMENTS DU REGARD...

16/04/2016

Les mouvements du regard : une affaire de saccades
voir dans le cerveau - par Alain Berthoz, Laurent Petit dans mensuel n°289 daté juillet 1996 à la page 58 (5660 mots)
Que se passe-t-il dans le cerveau quand notre oeil est attiré par quelque chose ou quand nous décidons de regarder un objet, la route qui défile devant soi, un paysage ? Pratiquée sur des animaux, l'électrophysiologie nous donne une connaissance de plus en plus fine des cascades de processus déclencheurs et inhibiteurs à l'oeuvre. L'imagerie cérébrale permet de réaliser des expériences complémentaires, qui nous renseignent sur les boucles de rétroaction entre les aires corticales et le cerveau profond. Plongée au coeur d'une complexité inouïe.

Lepremier mouvement de capture qui apparaît chez l'enfant, bien avant qu'il puisse atteindre avec la main ou parler, est la saccade oculaire . C'est un mouvement fondamental dans l'exploration visuelle. On connaît maintenant les réseaux locaux de neurones qui contrôlent les saccades oculaires et on est aussi sur le point d'élucider les mécanismes par lesquels sont produites des saccades faites vers des cibles mémorisées. C'est donc à la fois un modèle pour l'attention sélective et pour celle de la mémoire spatiale.

La saccade est le changement de direction du regard produit par le système oculomoteur lorsque l'oeil se déplace par un saut brusque. Celui-ci ne dure que 20 à 150 millisecondes et atteint des vitesses de 800 degrés par seconde. C'est le mouvement le plus rapide que nous puissions produire. Chaque saccade est composée d'un mouvement bref, suivi par un ajustement plus lent du déplacement de l'oeil, qui peut lui-même être suivi par une saccade de correction.

Si nous demandons à un sujet de regarder le visage d'une femme, le trajet oculomoteur c'est-à-dire la séquence de saccades réalisé pour explorer ce visage sera complètement différent suivant que l'on demande si cette femme est riche, triste, bien coiffée ou si elle a les oreilles décollées... De même, si nous demandons de regarder un paysage et d'analyser la scène pour voir s'il y a des animaux ou des arbres ou si le ciel est clair, les trajets oculomoteurs seront différents. Explorer un visage ou une scène de l'environnement exige donc des décisions cognitives complexes et l'on comprend que la saccade soit un modèle intéressant pour l'étude de la sélection motrice et des processus de décision.

Sans entrer dans le détail des mécanismes neuronaux qui conduisent à la production des saccades, nous examinerons les principales étapes de la production d'une saccade pour gagner en vue générale ce que nous allons perdre dans le grain fin de notre analyse. Nous examinerons ce système en partant de sa sortie, c'est-à-dire des centres moteurs du tronc cérébral, et en nous déplaçant peu à peu vers le cortex voir photos du cerveau p. 34 . Cette méthode, de bas en haut en quelque sorte, est contraire à la démarche apparemment plus naturelle qui aurait consisté à partir de la rétine et à examiner les étapes successives de l'analyse des images qui conduisent ensuite à une commande motrice. Notre approche est dictée par le but que nous poursuivons. Nous voulons montrer qu'il existe une organisation hiérarchique de l'exécution des saccades qui permet le verrouillage de l'exécution à différents niveaux par des mécanismes inhibiteurs. Nous voulons aussi suggérer que les mêmes structures neuronales sont mises en jeu pendant le mouvement de l'oeil imaginé et le mouvement exécuté. Notre démarche est aussi destinée à soutenir le point de vue que le cerveau ne fonctionne pas seulement comme une machine biologique qui effectue des transformations sensori-motrices par des mécanismes séquentiels : à plusieurs niveaux du traitement, les commandes motrices influencent le traitement des données sensorielles1,2. Le fait de partir de la commande motrice revient donc à prendre l'action comme élément essentiel du fonctionnement neuronal, à regarder comment elle est organisatrice de la perception, et non pas à chercher comment la perception détermine l'action.

La figure 1 montre un diagramme qui résume les opérations neuronales impliquées dans le contrôle des saccades oculaires. Il n'est, bien sûr, pas exhaustif. Il faut le parcourir de manière synthétique puis revenir en arrière sur chacune des étapes. Le but du diagramme n'est pas de montrer le détail des circuits neuronaux qui contribuent à une saccade ou même à un mouvement d'orientation grâce à un mouvement coordonné des yeux et de la tête mais de soutenir l'idée que la décision de faire un mouvement des yeux, accompagné ou non d'un mouvement de la tête, est prise à travers une hiérarchie de mécanismes parallèles excitateurs et inhibiteurs.

Si nous prenons tout d'abord le dernier étage de l'exécution, la saccade oculaire est produite par la décharge de neurones moteurs qui activent les fibres motrices des muscles des yeux, que l'on appelle motoneurones. Ceux-ci déchargent avec une modulation de leur fréquence très particulière constituée d'une bouffée d'activité phasique* très vive suivie d'une décharge tonique* qui permet de maintenir l'oeil dans la nouvelle position. La bouffée d'activité au début de la décharge des motoneurones est principalement destinée à vaincre la viscosité de l'oeil, noyé dans les tissus du globe oculaire, et de permettre que la saccade soit exécutée en quelques dizaines de millisecondes. Les théories et expérimentations faites depuis une dizaine d'années ont révélé que ces deux composantes de la décharge des motoneurones, bouffée d'activité phasique et décharge tonique, étaient contrôlées par des mécanismes séparés. C'est en effet la bouffée d'activité initiale, qui détermine la vitesse de la saccade, qui est le signal envoyé par l'ensemble du cerveau aux motoneurones. La composante tonique est construite localement, dans le tronc cérébral, par un mécanisme dit intégrateur au sens mathématique du mot, dont l'implémentation neuronale est extrêmement complexe et encore mal connue, qui transforme en quelque sorte cette bouffée d'activité phasique en décharge tonique.

On connaît le dernier neurone prémoteur qui produit cette activité phasique et lance l'oeil vers sa nouvelle position. C'est le neurone excitateur phasique. Il est situé dans la formation réticulée* pontique au voisinage du noyau abducens pour les mouvements horizontaux et il a des équivalents pour les mouvements verticaux dans la formation réticulée mésencéphalique fig. 2. Il y a donc deux générateurs saccadiques, l'un pour les mouvements horizontaux situé dans la formation réticulée pontique et l'autre pour les mouvements verticaux et de torsion situé dans la formation mésencéphalique. Ces deux générateurs reçoivent un signal phasique du cerveau et le transforment en une commande phasi-tonique grâce à des mécanismes neuronaux locaux appelés « intégrateurs ». On suppose qu'il y a deux intégrateurs saccadiques pour les deux types de mouvements. Ils sont indiqués par le symbole º sur le schéma.

Ce circuit neuronal prémoteur, dont chacun des neurones est aujourd'hui bien défini, est sous contrôle d'un système inhibiteur tout à fait remarquable qui en contrôle le fonctionnement de façon permanente. Des neurones dont le corps cellulaire est situé à la partie médiane de la formation réticulée inhibent en permanence les neurones excitateurs phasiques. Pour que la saccade puisse se déclencher, il faut que ces neurones cessent leur activité, pausent : on les appelle neurones « pauseurs ». Les neurones pauseurs constituent donc un système de sélection temporelle de la saccade situé au niveau immédiatement prémoteur.

On voit donc que le générateur de saccades peut être activé par le cerveau mais ne peut produire réellement un mouvement que si l'inhibition exercée par les neurones « pauseurs » est supprimée et si, pour ce faire, ces neurones pauseurs sont eux-mêmes inhibés par d'autres neurones venus des structures supérieures du cerveau. L'inhibition se fait probablement par deux voies parallèles : l'une qui descend directement du cortex cérébral cortex préfrontal, champs oculomoteurs frontaux, l'autre descendant vraisemblablement du pôle avant dit rostral du colliculus supérieur, en tout cas chez le singe.

L'essentiel est de comprendre que la désinhibition des neurones pauseurs définit le bref instant dans lequel la saccade est autorisée.

Un deuxième niveau de blocage de l'exécution des saccades est localisé au niveau du colliculus supérieur*. On sait que les neurones des couches intermédiaires du colliculus supérieur contiennent des neurones de projection, appelés « neurones tecto-réticulo-spinaux » NTRS qui se projettent vers le tronc cérébral et la moelle et qui sont des neurones importants dans la production des mouvements d'orientation des yeux et de la tête.

Le mécanisme exact de la contribution de ces neurones à la génération des saccades est encore inconnu mais il est clair qu'au moins une partie d'entre eux déchargent sous forme d'une bouffée d'activité qui précède et accompagne la saccade3. Ils se projettent directement sur les neurones excitateurs phasiques ou bien sur d'autres neurones intermédiaires situés dans le tronc cérébral, ainsi que sur les neurones réticulo-spinaux impliqués dans la production de la saccade. La décharge des NTRS code une variable dynamique encore mal définie qui est en relation avec ce qu'on appelle l'erreur motrice saccadique, autrement dit la différence entre l'endroit où est l'oeil à un moment donné et celui qu'il doit atteindre pour positionner la fovéa* sur la cible. Le caractère exact de cette erreur motrice dynamique reste à préciser.

Chacun de ces neurones porte, inscrite dans l'anatomie de ses projections vers les générateurs saccadiques, la direction de la saccade. Chacun d'eux code certains aspects de la dynamique de la saccade dans sa fréquence de décharge et sa direction par le branchement de son axone4,5. Une saccade horizontale est produite par les NTRS qui se projettent seulement sur les neurones du générateur horizontal dans le tronc cérébral, une saccade verticale par les NTRS qui se projettent seulement vers le générateur vertical et de torsion dans le mésencéphale, une saccade oblique par les NTRS dont l'axone se distribue vers les deux générateurs. Autrement dit, la géométrie de la saccade est codée par la morphologie et par l'anatomie.

Propriété remarquable, ces neurones des couches intermédiaires sont organisés suivant une carte rétinotopique* en registre avec les couches superficielles du colliculus supérieur. Le colliculus représente le deuxième niveau de verrouillage potentiel de l'exécution de la saccade, parce que cette carte motrice est elle-même sous un contrôle inhibiteur, exercé à partir d'une autre formation, la substance noire*. On sait depuis peu que la projection de la substance noire vers le colliculus supérieur est organisée d'une façon extrêmement précise, en ce sens que des neurones de la substance noire vont inhiber des populations de neurones très particuliers suivant une organisation modulaire sur le colliculus supérieur. Ceci permet une véritable sélection spatiale puisque il sera possible d'inhiber les saccades réalisées dans une direction précise de l'espace.

Autrement dit, le rôle de l'inhibition exercée par la substance noire sur le colliculus supérieur est non seulement de faire un blocage temporel de la saccade comme c'était le cas pour les neurones pauseurs mais aussi une sélection spatiale en régulant l'orientation du mouvement de l'oeil.

Un autre groupe de neurones, localisés à la partie avant rostrale du colliculus supérieur, décharge pendant la fixation de l'oeil. Il existe donc un mécanisme indépendant pour fixer l'oeil dans l'orbite. Ce que l'on peut appeler une décision spatio-temporelle est donc élaborée au niveau du colliculus supérieur. Elle permet de déplacer l'attention visuelle d'une zone de l'espace à une autre. Ce mécanisme dit « attentionnel » doit être compris comme une préparation motrice. Il a été mis en valeur sous le nom de théorie motrice de l'attention6,7. Cette réaction d'orientation de l'attention n'est en rien simple : elle implique un très haut degré de traitements multisensoriels et probablement aussi des mécanismes de très haut niveau impliquant le cortex cérébral et même la formation hippocampique*.

Troisième niveau d'action inhibitrice : en provenance du striatum*. Nous venons de voir que la saccade ne peut être déclenchée que si la surface du colliculus est libérée de l'action inhibitrice de la substance noire8. Ceci suppose que les neurones de la substance noire soient eux-mêmes inhibés... Ils le sont par des neurones du noyau caudé* dans le striatum9. Lesquels déchargent pendant des saccades volontaires et sont aussi actifs lorsque l'animal fait des saccades vers des cibles mémorisées. Ils sont probablement impliqués dans le contrôle cognitif de l'initiation de la saccade.

Mais le processus de sélection saccadique est encore plus complexe et subtil. Des découvertes récentes montrent qu'en parallèle avec cette cascade d'inhibitions, qui implique le noyau caudé et la substance noire, une deuxième cascade d'inhibitions et d'excitations accompagne et renforce la sélection. Cette voie, qui a pour cible le colliculus et pour station terminale le noyau subthalamique*, est composée des neurones suivants : tout d'abord, un neurone inhibiteur, localisé dans le striatum, se projetant vers le globus pallidus*, qui lui-même se projette sur un autre neurone inter-neurone inhibiteur, lequel se projette sur le noyau subthalamique. Le neurone cible dans le noyau subthalamique est excitateur et se projette vers un neurone inhibiteur dans la substance noire qui supprime l'activité dans le colliculus comme le font les neurones de la première voie.

L'action de cette deuxième voie est donc la suivante : activation d'un neurone d'entrée qui produit une inhibition sur le neurone du globus pallidus qui relâche l'activation du neurone subthalamique qui accroît l'inhibition de la substance noire, produisant ainsi une inhibition des neurones colliculaires. Les neurones subthalamiques maintiennent une décharge tonique tant que l'animal fixe une cible qui signale l'anticipation d'une récompense. Ce mécanisme est donc intimement lié à la prise en compte d'éléments contextuels pour le déclenchement et la modulation des saccades.

L'inhibition a, par conséquent, aussi pour rôle de permettre le choix d'une simulation interne du mouvement afin de trouver la stratégie appropriée et la combinaison des synergies. L'une des grandes améliorations produites par l'évolution dans le cerveau du primate a été de multiplier les mécanismes inhibiteurs, ce qui a non seulement permis de rendre plus subtiles l'inhibition réciproque et la modulation des réflexes ou des éléments du répertoire moteur pendant l'action volontaire, ou pour la sélection de nouvelles synergies, mais a aussi été utilisée, à notre avis, pour bloquer l'exécution d'un mouvement, de façon à permettre la simulation interne des mouvements planifiés et à tester de façon endogène ses conséquences potentielles. Le rôle de l'inhibition est donc essentiel dans l'apprentissage et la plasticité. Il faut enfin garder présent à l'esprit qu'à chaque étage de ces cascades d'inhibition d'autres parties du cerveau peuvent modifier ces transmissions.

Voici près de dix ans nous avons proposé l'idée, avec Jacques Droulez et Pierre Paul Vidal, que le mouvement n'est pas seulement contrôlé par des boucles sensori-motrices continues agencées de façon cybernétique. En parallèle interviennent d'autres boucles, internes au cerveau, dans lesquelles le mouvement peut être simulé sans être exécuté, permettent de faire des prédictions et de sélectionner les stratégies motrices. Cette théorie a obtenu récemment un renfort avec la découverte du rôle fonctionnel de circuits reliant les ganglions de la base*, le thalamus* et le cortex. Or ces boucles internes impliquent les structures du cortex que nous allons retrouver dans les expériences d'imagerie cérébrale. Pour les mouvements des yeux il semble par exemple qu'un circuit spécialisé liant le champ oculomoteur frontal et le champ oculomoteur supplémentaire avec les ganglions de la base et le thalamus soit impliqué fig. 3.

Cela suggère que les saccades ne sont pas produites par de simples séquences allant de la rétine vers le cortex puis le colliculus et le tronc cérébral dans des chaînes sensori-motrices, mais sont bel et bien organisées en boucles modulaires10. Le blocage au niveau du colliculus laisse parfaitement libre de fonctionner la boucle impliquant le cortex, le ganglion de la base et le thalamus. En l'absence de toute exécution de la saccade, ces boucles internes peuvent donc jouer un rôle dans la simulation interne et la prédiction des effets du déplacement du regard avant, voire sans que celui-ci soit exécuté.

Dans un esprit voisin, le Japonais Hikosaka a proposé récemment un circuit théorique dans lequel une « récompense » peut influencer ces boucles internes liant les ganglions de la base, le thalamus et le cortex11. Les ganglions de la base joueraient le rôle de coordinateur entre les différentes aires corticales impliquées dans l'élaboration d'une stratégie motrice. Ces zones seraient fonctionnellement connectées grâce à un apprentissage fondé sur la récompense. Les sorties de ces aires corticales convergeraient à leur tour sur les ganglions de la base au début d'un apprentissage. Pendant l'apprentissage, une association entre la convergence motrice et les signaux de récompense venant du système limbique* sélectionnerait, au niveau des ganglions de la base, uniquement les combinaisons d'entrées corticales qui conduisent à une récompense. Il y a donc là une modalité de sélection qui est encore plus complexe et subtile que celle d'un simple verrouillage comme celui décrit au niveau du tronc cérébral, plus complexe et subtile aussi que la sélection spatio-temporelle au niveau du colliculus.

Nous voyons clairement qu'il se produit une « réafférence » interne des signaux à tous les niveaux de traitement. Ainsi la position de l'oeil dans l'orbite influence le traitement cortical des informations visuelles. Elle influence aussi la décharge des neurones secondaires du réflexe vestibulo-oculaire*, les neurones du thalamus, etc. La réafférence de position ou de vitesse de l'oeil prélevée à la sortie de l'intégrateur est donc certainement adressée à divers niveaux du cerveau pour des opérations de changement de coordonnées, de perception, de coordination entre les mouvements des yeux et des autres parties du corps, etc. La distribution exacte de ces informations et leur rôle précis sont toutefois encore inconnus.

L'une des limites de l'imagerie par TEP ou IRM voir p. 36 est actuellement de ne pas pouvoir distinguer entre les signaux neuronaux qui sont liés à des commandes motrices et ceux qui sont liés à des réafférences internes. Les activités enregistrées par la caméra à émission de positons, qui intègre sur 80 secondes, ne permettent pas de distinguer ces deux types de signaux ! Seconde limitation importante : ces techniques ne permettent pas de distinguer entre l'activité de neurones excitateurs et celle de neurones inhibiteurs. Or nous venons de voir qu'il existe plusieurs voies avec des saccades de mécanismes inhibiteurs. Il faut garder ces limitations à l'esprit en analysant les données de l'imagerie.

Les saccades oculaires sont organisées par la coopération d'un grand nombre d'aires corticales dont seulement certaines ont été très bien étudiées et dont il est bon de rappeler leurs propriétés essentielles pour illustrer le travail fait par imagerie cérébrale.

Une zone essentielle du cortex pour la production de saccades volontaires est l'aire appelée « champ oculomoteur frontal » fig. 3, dont la stimulation électrique produit les mouvements des yeux. Le champ oculomoteur frontal chez le singe contient plusieurs catégories de neurones qui déchargent en relation avec les saccades, la fixation oculaire, la poursuite, etc. Chez l'homme son activation pendant les saccades a été démontrée par quelques travaux de pionniers13,14. Sa localisation dans le gyrus précentral a été définitivement établie par le travail que nous avons réalisé avec l'équipe du SHFJ d'Orsay. Le gyrus précentral est activé lors de saccades volontaires horizontales dans le noir14, c'est-à-dire sans aucune cible présentée au sujet fig. 3, mais aussi lors de la fixation oculaire15 fig. 4, et lors de séquences de saccades mémorisées16,17. Dans cette dernière expérience, le sujet devait répéter dans le noir complet une séquence de cinq saccades vers des cibles qui lui avaient été présentées auparavant dans le plan horizontal fig. 5. De façon générale le gyrus précentral est activé pendant tous les mouvements saccadiques volontaires. Il a toutefois été suggéré sur la base de lésions chez l'homme qu'il pourrait y avoir une dissociation entre la zone rostrale avant de cette aire corticale, qui serait impliquée dans l'organisation de mouvements complexes ou fins et qui aurait donc une fonction de type « frontal » et la zone caudale arrière qui serait purement motrice. Seules des techniques d'imagerie plus fines permettront de résoudre cette question.

Autre zone essentielle : l'aire motrice supplémentaire AMS. Chez l'homme elle est située sur la partie médiane du lobe frontal en avant des aires motrices proprement dites. Sa localisation a été étudiée par l'enregistrement de l'activité électrique EEG et magnétique MEG18 et par de nombreuses études utilisant la TEP19 et l'IRM fig. 3.

Il faut rappeler que l'AMS fait partie de boucles liant des structures des noyaux gris centraux ganglions de la base et le thalamus. Sa fonction est donc liée à celle de ces autres noyaux - et aussi d'autres structures comme le cervelet. De même elle fonctionne en relation avec les cortex pariétal, préfrontal et cingulaire voir p. 36 et fig. 2 .

Les neurones de l'AMS sont disposés suivant une sorte de carte du corps comme dans le cortex moteur somatotopie. On obtient par exemple, chez l'homme, des mouvements du visage par stimulation de la partie antérieure. C'est aussi vrai chez le singe. Les projections des axones de l'AMS vers les neurones du cortex moteur sont très précises. Cela n'implique pas que cette structure commande des muscles séparés. Elle peut commander des groupes de muscles, des synergies motrices. L'activité des neurones de l'AMS chez le singe précède des mouvements complexes. Elle est corrélée avec une action globale puisque ces neurones contribuent à activer des muscles de la main gauche, mais uniquement lorsque le mouvement est fait avec les deux mains. Elle intervient aussi lorsque l'animal doit décider de faire ou ne pas faire un mouvement tâche appelée GO-NO-GO par les Anglo-Saxons. Elle est enfin impliquée lors de séquences de mouvements.

L'ablation de l'AMS chez le singe entraîne surtout des déficits dans des tâches de préhension alors que les autres fonctions motrices sont intactes, par contraste avec les lésions du cortex moteur qui induisent de graves déficits.

Chez l'homme une lésion de l'AMS induit une akinésie globale, des déficits des mouvements alternés des membres, un mutisme, des désordres du langage, du séquencement des gestes, de la coordination bimanuelle, des mouvements mémorisés et surtout des mouvements produits de façon endogène c'est-à-dire librement construits par le cerveau même en l'absence de stimulation externe.

Données confirmées par les enregistrements chez l'homme de l'activité électrique à la surface du crâne EEG. Dans la zone du cortex qui correspond à l'AMS on enregistre un potentiel électrique lent qui précède d'environ une seconde et demie un simple geste du doigt : c'est ce que l'on appelle le potentiel de préparation. L'AMS s'active fortement lorsqu'on demande au sujet de faire une tâche de frappe bimanuelle avec un rythme différent de chaque main comme dans le cas d'une partition de piano21,22. Pour les mouvements plus simples l'AMS est peu sollicitée, c'est surtout le cortex moteur qui est activé.

On pense que l'AMS participe essentiellement aux mouvements endogènes alors que le cortex prémoteur contribue aux mouvements guidés par des signaux sensoriels. Cette distinction pourrait être profonde et remonter loin dans l'évolution. Dans l'arbre des mammifères, l'AMS a son origine dans l'hippocampe et une racine limbique dans le cortex cingulaire antérieur. Le cortex prémoteur aurait son origine dans le cortex pyriforme* et sa racine dans le cortex insulaire*. Les entrées sous-corticales de l'AMS viennent surtout, à travers le thalamus, des ganglions de la base, alors que le cortex prémoteur reçoit ses entrées du cervelet. L'AMS reçoit des entrées cortico-corticales somatosensorielles du cortex pariétal, et des entrées limbiques du cortex cingulaire, alors que le cortex prémoteur reçoit surtout des entrées cortico-corticales du cortex pariétal.

Mais à l'intérieur même de l'AMS on pense pouvoir distinguer deux zones : à l'avant la zone dite pré-AMS, à l'arrière l'AMS proprement dite. La pré-AMS a des connections avec le cortex préfrontal et reçoit des entrées de l'aire dite 46 cortex prémoteur antérieur et aussi du cingulum* antérieur qui est impliqué dans l'intention de mouvement et l'attention. Seule l'AMS proprement dite a des connexions avec le cortex moteur et le cingulum postérieur, dont la fonction est plutôt motrice. La stimulation électrique ou magnétique de la pré-AMS donnerait une « intention de mouvement » les sujets disent : « J 'ai envie de faire un mouvement » . Des données récentes avec la TEP suggèrent que la pré-AMS est activée pendant le mouvement imaginé des doigts et l'AMS proprement dite pendant le mouvement exécuté.

Il semble exister une autre sous-division de l'AMS pour les mouvements du regard. Si on stimule cette sous-zone par les mouvements des yeux on observe des saccades oculaires qui, au lieu d'avoir une direction fixe, convergent toutes vers un point22. On a nommé chez le singe cette aire « champ oculomoteur supplémentaire » COS. Des patients porteurs de lésions de l'AMS gauche présentent des déficits pour l'exécution de séquences de deux ou trois saccades vers des cibles visuelles mémorisées23,24. Cette région est donc sans doute essentielle pour l'organisation de ce cheminement de saccades sur une scène visuelle. Nous avons aussi montré, en coopération avec Charles Pierrot-Deseilligny et ses collaborateurs, qu'elle est impliquée dans les saccades mémorisées d'origine vestibulaire.

L'imagerie cérébrale confirme que l'AMS, ou plutôt le COS, est activée pendant plusieurs sortes de mouvements oculaires : saccades simples volontaires dans le noir et séquences de saccades mémorisées. Ce qui rejoint l'idée de l'implication de cette aire dans l'organisation de mouvements exigeant une contrainte temporelle.

L'imagerie cérébrale a aussi confirmé l'implication de la partie antérieure du cortex cingulaire dans les processus d'attention et de décision perceptive, jusqu'alors seulement soupçonnés en raison notamment de ses relations avec le cortex préfrontal. L'étude neurophysiologique de cette structure avait été négligée par les chercheurs qui enregistrent des neurones. Sa pathologie est très difficile à interpréter en raison de la difficulté de trouver des patients ayant des lésions spécifiques de cette zone. Concernant la partie médiane du cortex cingulaire, les enregistrements de neurones ont suggéré une contribution, encore mal comprise, dans l'organisation du mouvement des mains, des yeux et de la tête. Des chercheurs ont montré chez le singe l'existence de neurones qui déchargent lors de la planification et de l'exécution des mouvements simples et complexes du bras. La partie postérieure du gyrus cingulaire semble concernée non pas par la sélection perceptive, ou la planification du mouvement, mais peut-être par la réorganisation perceptive après un mouvement ou même le contrôle correctif. En effet les neurones du cortex cingulaire postérieur déchargent après les saccades oculaires et leur activité dépend des caractéristiques de la saccade précédente25. Cette région pourrait donc jouer un rôle dans l'intégration des conséquences de l'action.

Nous avons, pour notre part, trouvé une activation du cortex cingulaire médian dans toutes les tâches de saccades endogènes fig. 3, 5, 6 que nous avons analysées, ce qui semble confirmer le rôle de cette structure dans la production de mouvements endogènes ou « volontaires ».

Grâce à l'imagerie cérébrale, nous avons pu démontrer, pour la première fois, que les aires pariétales ne sont activées que pendant l'exécution de tâches de séquences de saccades mémorisées16,17,26. Rappelons que des lésions pariétales droites induisent de grandes maladies neurologiques comme la négligence spatiale, qui conduit à négliger la moitié de l'espace devant soi, pourtant parfaitement vu. Elles entraînent aussi des erreurs de localisation. Le malade voit par exemple très bien le verre sur la table et la bouteille qu'il tient dans la main mais ne peut pas verser l'eau de la bouteille dans le verre. Il le verse à côté, car il ne peut pas intégrer dans une représentation cohérente la position de sa main et l'espace extérieur.

On a aussi accordé au cortex pariétal un rôle essentiel dans la constitution du « schéma corporel », mais on hésite encore entre des théories qui lui attribuent un rôle essentiel dans la direction de l'attention visuelle et d'autres qui lui font piloter la planification des mouvements. Chez le singe, les neurones de l'aire visuelle intrapariétale latérale IPL qui répondent à une stimulation visuelle ont une réponse dont l'intensité dépend de la direction du regard de l'animal28. Un signal de mesure de la position de l'oeil dans l'orbite, venu des profondeurs du cerveau, autrement dit de l'intégrateur neuronal du tronc cérébral, est donc ajouté à l'activité des neurones induite par la vision. De plus, on a découvert une autre zone dans la partie latérale du sillon intrapariétal qui est spécialisée dans la production de saccades. Plusieurs travaux récents ont montré que ces aires du cortex pariétal sont le siège de convergences multimodales visuelles, vestibulaires oreille interne et proprioceptives sensibilité musculaire, ligamenteuse, etc.. Certains auteurs pensent que se produit dans le cortex pariétal un changement de coordonnées qui reconstitue la position de la cible dans l'espace en intégrant les positions respectives de la cible, de l'oeil, de la tête, du corps, etc.. Mais cette conception cartésienne du cerveau n'a pas notre accord. En conformité avec la théorie que nous avons proposée avec Jacques Droulez28, d'autres auteurs proposent l'idée que la localisation de la cible est codée dans le cortex pariétal dans des coordonnées oculocentriques, qui seraient réactualisées en permanence en fonction des mouvements de l'oeil, voire de sa position anticipée29,30.

On constate par exemple que lorsqu'on allume très brièvement une cible, un neurone de l'aire IPL dont le champ récepteur est atteint par l'information répond à la trace mémorisée de la cible bien qu'elle ait disparue. De plus, lorsqu'un mouvement de l'oeil se produit, environ un tiers des neurones de l'IPL décalent leur champ récepteur. Il s'agit là d'une anticipation du mouvement, qui permet au neurone de répondre avant même que la cible arrive dans le champ récepteur.

L'absence en TEP de toute activité du cortex pariétal pendant les saccades volontaires dans le noir fig. 3 n'est donc pas surprenante puisque cette structure est principalement impliquée dans des traitements visuo-spatiaux à partir d'informations visuelles préalablement perçues. L'activation au contraire du cortex pariétal lors de saccades mémorisées est à rapprocher du fait que lorsque cette zone est lésée chez l'homme, on observe une dégradation de la précision et une augmentation de latence des saccades visuellement guidées ou mémorisées. Les données récentes de l'imagerie cérébrale montrent que c'est le lobule pariétal supérieur qui est activé chez l'homme lors de tâches de mouvements des yeux ou du bras visuellement guidés, de rotation mentale de la main, de localisation spatiale, ou encore d'exercices d'imagerie mentale comme l'exploration d'une île.

Nous avons observé que l'exécution de séquences de saccades mémorisées induit une activation bilatérale du cortex frontal dorso-latéral supérieur. Située en avant du gyrus précentral, la région ainsi définie correspond donc à une partie du cortex prémoteur.

Après ablation du cortex prémoteur, un singe ne peut pas se rappeler un mouvement du bras appris sur la base d'informations visuelles. Mais il est capable d'apprendre une tâche non motrice dans laquelle les mêmes informations visuelles spécifient l'objet à choisir. Des activations du cortex prémoteur ont été trouvées en TEP lors de l'exécution de mouvements des doigts et des mains simples et complexes et plus particulièrement lors de la reproduction d'une séquence de mouvements du doigt apprise. Observations corroborées auprès de patients porteurs de lésions du cortex prémoteur. Ils ne présentent pas de déficits dans la sélection d'actions motrices appropriées au cours de leur vie quotidienne mais ont des difficultés sérieuses lorsque leurs mouvements sont dirigés par un stimulus arbitraire. Il est aussi possible que cette aire soit, comme l'AMS, impliquée dans la coordination temporelle du mouvement des saccades. En tout état de cause ces observations soutiennent l'idée d'une implication du cortex prémoteur dans la relation entre le mouvement en train d'être exécuté et les données de la mémoire.

Dans aucun des paradigmes que nous avons employés jusqu'à présent nous n'avons trouvé d'activation du cortex préfrontal. Pourtant les données de la neurophysiologie démontrent que, chez le singe, les neurones de cette aire sont impliqués dans l'organisation des saccades oculaires avec délai. Ce qui rejoint les hypothèses concernant l'importance du cortex préfrontal dans la mémoire représentationnelle et les processus attentionnels pendant les mouvements du regard.

On sait par ailleurs que chez l'homme les patients avec des lésions frontales et préfrontales ont des déficits dans leur capacité de bloquer leurs saccades. On trouve chez ces patients des déficits dans les tâches dites d'antisaccades, qui consistent à faire une saccade en sens contraire de la direction de la cible qui s'allume. On a aussi découvert chez le singe et chez l'homme des régions préfrontales impliquées dans la commande de ne pas faire un mouvement NO-GO. Il existe donc certainement à ce niveau un mécanisme important de sélection et de contrôle de l'orientation du regard, probablement testable en imagerie.

D'après notre hypothèse les mêmes structures neuronales devraient être utilisées pour les mouvements imaginés et les mouvements exécutés. Il est en effet possible de verrouiller l'exécution à différents niveaux sans supprimer le fonctionnement des boucles internes où les mouvements du regard peuvent être élaborés et simulés. D'autres auteurs ont apporté récemment des données sur ce sujet soit par la comparaison des temps d'exécution soit par imagerie cérébrale31-34. Pour tester cette hypothèse nous avons, avec le groupe d'Orsay auquel se sont joints W. Lang et P. Holliger de l'université de Vienne, une expérience au cours de laquelle nous avons comparé les aires corticales activées pendant les saccades exécutées et les saccades imaginées35. Nous avons mesuré les mouvements oculaires afin de bien contrôler que les saccades restent d'amplitudes insignifiantes pendant les tâches de mouvement imaginé fig. 6. Le sujet doit fixer un point lumineux devant lui et faire d'abord des saccades horizontales volontaires. Puis il doit fixer la cible dans le noir et faire des saccades imaginées semblables aux précédentes. Nous avons conclu de ce travail que le champ oculomoteur, l'AMS et le cortex cingulaire étaient activés pendant les mouvements imaginés comme ils l'avaient été pendant les saccades exécutées.

Il nous faudra relier ces observations avec le problème plus général des déplacements de l'attention. Dans un travail récent, des chercheurs ont demandé à des sujets de déplacer leur attention vers des parties différentes du champ visuel sans faire de mouvement des yeux. Ils ont comparé les activations dans cette première tâche avec celles induites par une tâche de fixation centrale destinée à empêcher tout déplacement de l'attention visuelle. Ils ont observé une activation du lobule pariétal supérieur. Il nous faudra aussi préciser les relations entre les données obtenues jusqu'à présent sur le contrôle de la direction du regard et le circuit fronto-pariéto-cingulaire, qui jouerait un rôle dans l'attention dirigée36.

De toute évidence, les mouvements du regard constituent un excellent modèle physiologique pour l'étude des bases neurales de la décision et de l'imagination motrice. Seuls les enregistrements de neurones chez le singe permettront réellement de connaître les mécanismes biologiques qui sous-tendent les aspects les plus complexes de cette fonction hautement cognitive. Mais il est clair que l'imagerie cérébrale est devenue un outil fondamental, et incontournable, pour en comprendre les mystères, et la pathologie chez l'homme.

Par Alain Berthoz, Laurent Petit

DOCUMENT larecherche.fr LIEN

L'OXYGÈNE

09/04/2016

L'oxygène


par Marie-Christine de La Souchère dans mensuel n°429 daté avril 2009 à la page 75 (2528 mots)
Indispensable à la plupart des organismes vivants, l'oxygène est l'un des éléments chimiques les plus répandus sur Terre, ainsi que dans le cosmos.

Sous quelles formes l'oxygène existe-t-il ?
L'oxygène est un élément chimique de la famille des chalcogènes, dont le noyau atomique est constitué de huit protons et, généralement, de huit neutrons. On le trouve principalement sous forme moléculaire ou bien combiné à d'autres éléments. Dans l'air atmosphérique, deux atomes d'oxygène forment ainsi des molécules de dioxygène. L'air contient 21 %, en volume, de ce gaz incolore et inodore, qui possède des propriétés magnétiques et qui est soluble dans l'eau. À pression ordinaire et à la température de - 183 °C, le dioxygène se condense en un liquide de couleur bleu pâle. Lorsque la température descend en deçà de - 219 °C, celui-ci devient solide, tout en conservant la même couleur. Soumis à une décharge électrique, le dioxygène se transforme en une molécule constituée de trois atomes d'oxygène : le trioxygène, plus communément appelé « ozone ». On perçoit, parfois, l'odeur caractéristique de ce gaz irritant, par temps d'orage ou à proximité des centrales électriques. Molécule instable, très réactive d'un point de vue chimique, l'ozone est un bactéricide très efficace, utilisé notamment pour désinfecter l'eau. Il se forme naturellement dans la stratosphère, via des réactions photochimiques. Les molécules d'ozone constituent une couche protectrice qui absorbe la majeure partie du rayonnement ultraviolet, responsable notamment de cancers de la peau.

L'oxygène atomique se combine à presque tous les autres éléments, pour former de l'eau et un ensemble de composés appelés « oxydes », tels le dioxyde d'azote ou le dioxyde de carbone. L'oxygène représente ainsi 87 % de la masse totale des océans, et près de 50 % de celle de la croûte terrestre. Les composés fondamentaux des roches sont en effet des silicates, minéraux constitués par un empilement d'atomes d'oxygène entre lesquels sont insérés des atomes de silicium, ainsi que de divers métaux, comme le magnésium, l'aluminium ou le fer.

Qui l'a découvert ?
Le chimiste et théologien britannique Joseph Priestley, en 1774. Ce dernier est, en tout cas, le premier à avoir publié les résultats de sa découverte, prenant ainsi et entre autres de vitesse l'apothicaire suédois Carl Scheele. En chauffant de l'oxyde de mercure, Priestley avait recueilli un gaz légèrement plus dense que l'air, dans lequel une bougie brûlait d'un éclat « remarquablement vigoureux ». Le chimiste français Antoine Lavoisier a, par la suite, étudié cet « air éminemment respirable », et a mis en évidence le rôle qu'il jouait dans les phénomènes de combustion. Lavoisier portait ainsi un coup fatal à la théorie dite du « phlogistique », développée par le médecin allemand Georg Stahl au début du XVIIIe siècle. Selon cette théorie, seules les substances dotées d'un fluide spécial, le phlogistique, étaient inflammables : ce fluide s'échappait de ces substances au moment de leur combustion. En effectuant des pesées précises de métaux avant et après leur calcination, Lavoisier a observé, non pas une diminution de la masse, comme l'aurait exigé une éventuelle libération de phlogistique, mais une augmentation.

Quelle est l'origine de son nom ?
Lavoisier pensait, à tort, que tous les acides renfermaient de l'oxygène. C'est pourquoi il lui donna ce nom, dont l'origine grecque signifie « qui engendre des acides » - tout comme le mot hydrogène, forgé aussi par Lavoisier, signifie « qui engendre de l'eau ». Il a également qualifié les acides les plus oxygénés par le suffixe « -ique », et les moins oxygénés, par le suffixe « -eux ». Pour une même quantité de soufre, l'acide sulfurique, ou vitriol, renferme ainsi davantage d'oxygène que l'acide dit sulfureux.En recourant à ces nouvelles terminologies, Lavoisier bouleversait la nomenclature de l'époque et posait les jalons de la chimie moderne.

Quel rôle joue-t-il dans la combustion ?
Un rôle essentiel, car une flamme s'éteint dès que l'oxygène vient à manquer. Inversement, lorsqu'un incendie couve dans une pièce fermée, le seul fait d'entrouvrir une porte peut provoquer un embrasement général par apport subit d'oxygène. La combustion fait partie des réactions d'oxydoréduction, par lesquelles un oxydant, espèce chimique qui a tendance à capter des électrons, s'associe à un réducteur, espèce qui a tendance à céder des électrons. Dans le cas précis des réactions de combustion, l'oxygène est l'oxydant, et le combustible, le réducteur. Sur l'échelle, dite d'électronégativité, qui chiffre la capacité d'un élément à attirer des électrons lors de la formation d'une liaison chimique, seul le fluor possède une valeur plus importante que l'oxygène.

Les réactions de combustion libèrent de l'énergie, qui est transférée sous forme de chaleur et de rayonnement. Le phosphore et le magnésium s'enflamment, par exemple, très facilement dans l'air, en émettant une lumière très vive. La combustion de l'hydrogène ou de l'acétylène dans l'oxygène est, quant à elle, mise à profit dans les chalumeaux oxhydriques et oxyacétyléniques, qui engendrent des températures allant de 2 000 à 3 000 °C.

Peut-on l'extraire de l'air ambiant ?
Oui, en séparant les constituants de l'air atmosphérique, qui est constitué principalement de dioxygène 21 % et de diazote 78 %. L'air est séché, comprimé sous une pression de 5 à 7 bars, et les molécules contenant du carbone, tel le dioxyde de carbone, sont filtrées. Le gaz subit ensuite une détente qui a pour effet d'abaisser sa température et de le faire passer à l'état liquide, selon un procédé industrialisé en 1902 par le chimiste et ingénieur français Georges Claude, fondateur de la société Air Liquide, actuel numéro un mondial pour la production des gaz industriels. Puis on réalise une distillation fractionnée de l'air liquide dans des colonnes qui comportent une centaine de plateaux superposés. Ces plateaux sont maintenus à des températures qui s'échelonnent entre - 183 °C et - 196 °C, températures d'ébullition de l'oxygène et de l'azote, respectivement [fig. 1] . L'air liquide est introduit dans la partie supérieure des colonnes, qui correspond aux zones les plus froides, et il commence à s'évaporer vers - 194 °C. Le plateau correspondant à cette température recueille le liquide restant, enrichi en oxygène, qui rejoint le plateau inférieur, alors que la vapeur formée, enrichie en diazote, monte dans la colonne pour gagner le plateau supérieur. Le liquide tombe de plateau en plateau, et l'élimination du diazote se poursuit de proche en proche. En augmentant la pression, on récupère ainsi du dioxygène gazeux, pur à plus de 99 %. Cette méthode assure, à elle seule, plus de 90 % de la production industrielle mondiale d'oxygène.

Environ 5 % de l'oxygène est fabriqué selon un autre procédé, non cryogénique, qui est de plus en plus utilisé par les industriels dont les besoins sont relativement peu importants. L'air atmosphérique est séché, filtré, avant de traverser une colonne de zéolites, sortes de tamis moléculaires qui absorbent plus rapidement le diazote que le dioxygène. La pureté de l'oxygène gazeux ainsi obtenu varie entre 90 % et 95 %.

Comment fonctionne un masque à oxygène ?
Tous les avions de transport public doivent pouvoir fournir de l'oxygène aux passagers et à l'équipage en cas de dépressurisation. Dans la plupart des appareils, l'oxygène est produit par voie chimique à partir de cartouches renfermant du chlorate de potassium, riche en oxygène. En cas de dépressurisation, il suffit de tirer sur le cordon des masques à oxygène pour déclencher, via une petite explosion, la réaction de décomposition thermique des chlorates. Les sels de chlorate libèrent alors du chlorure du potassium, et plus de six cents fois leur volume en oxygène. La réaction dégage elle-même de la chaleur, et s'entretient ainsi jusqu'à épuisement des chlorates.

On peut également produire de l'oxygène grâce à l'électrolyse de l'eau, c'est-à-dire sa décomposition en hydrogène et en oxygène sous l'effet d'un courant électrique. Cette méthode est utilisée, notamment, pour alimenter en oxygène les sous-marins nucléaires et la Station spatiale internationale, qui disposent pour cela de l'énergie fournie par leurs réacteurs ou par des panneaux solaires.

Comment l'oxygène est-il stocké ?
À l'état liquide ou sous forme de gaz comprimé. L'oxygène liquide, dit cryogénique, car conservé à très basse température - 183 °C, est conditionné dans des récipients isolants à double paroi, de type bouteille Thermos. Dans cet état condensé, il occupe un volume minimal : un litre de liquide libère en effet 850 litres de gaz à la pression atmosphérique. Sous forme de gaz, l'oxygène est conservé sous une pression de 200 bars, soit deux cents fois la pression atmosphérique normale - dans des bouteilles à ogive blanche, selon les normes en vigueur, le rouge étant réservé à l'hydrogène et aux gaz inflammables, le noir à l'azote, etc. Ce conditionnement, qui est celui des bouteilles d'oxygène médical, implique un certain nombre de précautions lors du stockage et de l'utilisation du gaz. Au danger classique d'une explosion sous l'effet de la chaleur s'ajoute en effet un risque d'inflammation lors de l'ouverture de bouteilles à détendeurs intégrés. Ces derniers comportent un compartiment haute pression dans lequel l'oxygène s'engouffre lors de l'ouverture du robinet. Le système est prévu pour résister à la forte augmentation de température jusqu'à 600 °C qui accompagne la brusque montée en pression. À une telle température, tout matériau organique s'enflamme très facilement, surtout lorsque la teneur en oxygène est élevée. La présence accidentelle de polluants peut ainsi entraîner leur combustion et l'explosion de la bouteille, via un processus dit de « coup de feu ».

L'oxygène est-il indispensable aux organismes vivants ?
À l'exception de quelques bactéries, tous les organismes vivants en ont besoin pour respirer. L'oxygène intervient dans les réactions de combustion lente des molécules biochimiques, comme les glucides et les graisses, qui fournissent l'énergie dont ces organismes ont besoin. Le dioxygène que nous respirons diffuse dans le sang au niveau des alvéoles pulmonaires, puis se fixe sur les molécules d'hémoglobine. Pompé par le coeur, le sang oxygéné - ou sang artériel - parvient aux cellules dans lesquelles se produit l'oxydation des substances organiques. Le processus se solde par la formation d'eau et de dioxyde de carbone, lequel, transporté par le sang veineux, plus foncé, emprunte le chemin inverse, pour être rejeté au niveau des poumons.

Les organismes stockent-ils de l'oxygène ?
Non, sauf au niveau des fibres musculaires. Pour satisfaire une demande en énergie prolongée, les fibres dites « lentes » stockent de l'oxygène au niveau des atomes de fer des molécules de myoglobine. Tout comme l'hémoglobine, la myoglobine est rouge lorsqu'elle est oxygénée, ce qui explique pourquoi les fibres lentes sont rouges. Les fibres dites « rapides », sollicitées à l'occasion d'efforts immédiats et importants, sont blanches.

Dans des organes tels que le cerveau, le stockage de l'oxygène est pratiquement inexistant. Mais, comme on peut l'observer grâce à l'imagerie par résonance magnétique fonctionnelle, une technique sensible à l'augmentation de débit sanguin liée à l'activité neuronale, le cerveau se montre particulièrement gourmand en oxygène. Bien que sa masse ne représente que 2 % de celle du corps humain, il consomme, à lui seul, 20 % de l'oxygène prélevé par les poumons. En altitude, la raréfaction de l'oxygène entraîne une baisse des performances. Au sommet de l'Éverest, par exemple, où la pression en oxygène descend au tiers de la normale, on estime que les performances tant physiques qu'intellectuelles sont divisées par cinq. Une pression en oxygène excessive peut, quant à elle, entraîner des lésions pulmonaires, voire des crises d'épilepsie. Les plongeurs de combat qui, avec leurs appareils respiratoires à circuit fermé, respirent de l'oxygène pur de manière prolongée, évitent ainsi de nager à plus d'une dizaine de mètres de profondeur.

D'où vient l'oxygène de l'air ?
Essentiellement des bactéries marines qui produisent leur matière organique en exploitant l'énergie solaire, et dont l'apparition, il y a environ trois milliards d'années, est attestée par l'analyse de microfossiles. L'atmosphère n'a pas toujours eu la composition qui est la sienne aujourd'hui. Le gaz carbonique a en effet longtemps dominé avant de se dissoudre dans l'eau des océans. Dotées de chlorophylle et autres pigments récepteurs de photons, les cyanobactéries, également connues sous le nom d'algues bleues, ont utilisé le rayonnement solaire pour synthétiser leur matière nutritive à partir d'eau et de dioxyde de carbone. Ce processus s'est accompagné d'un dégagement de dioxygène, qui a été piégé dans les minéraux par des éléments chimiques réducteurs, tel le fer, avant de s'accumuler progressivement dans l'atmosphère. Une partie des molécules de dioxygène se sont ensuite dissociées sous l'effet du rayonnement ultraviolet, et les atomes libérés se sont recombinés à d'autres molécules pour former la couche d'ozone dans la stratosphère [fig. 2] . La formation de ce bouclier protecteur a permis le développement de nouvelles formes de vie sur les continents. L'atmosphère a atteint sa composition actuelle il y a quelques centaines de millions d'années. Un équilibre s'est alors instauré entre l'oxygène dégagé par la photosynthèse, d'une part, et l'oxygène absorbé par la respiration des organismes vivants, l'oxydation des roches et la décomposition de matières organiques, d'autre part.

Existe-t-il de l'oxygène dans le cosmos ?
Oui, L'oxygène représente environ 1 % de la masse totale de l'Univers, faisant de lui le troisième élément chimique par ordre d'abondance, après l'hydrogène et l'hélium, mais devant le carbone. Cet oxygène est synthétisé au sein des étoiles via des réactions thermonucléaires. Il est tout d'abord produit, de façon temporaire, au cours du cycle carbone-azote-oxygène, également dénommé « CNO », symboles des éléments, un processus qui mène à la formation des noyaux d'hélium à partir de noyaux d'hydrogène. Au sein des étoiles possédant une certaine masse, ces noyaux d'hélium fusionnent pour produire notamment du carbone, puis de l'oxygène. En fin de vie, certaines de ces étoiles, les supernovae, explosent. Les éléments chimiques qui composaient ces étoiles se dispersent alors dans le cosmos, et « ensemencent » l'espace intersidéral qui verra naître de nouvelles étoiles.

Après plusieurs années de recherches, le satellite franco-suédois Odin a identifié, en 2007, des traces d'oxygène moléculaire dans un nuage de la constellation du Serpent. Mais cet élément est surtout présent dans l'espace interstellaire sous forme atomique ou sous la forme de molécules contenant notamment de l'hydrogène, du carbone ou de l'azote. Les cosmochimistes étudient ces différentes combinaisons dans le but d'élucider les mécanismes à l'origine de la formation des molécules de l'espace, et peut-être même du vivant.

Le Soleil contient aussi de l'oxygène, dans des proportions qui restent à déterminer. Selon les travaux de recherche les plus récents, cette quantité d'oxygène serait en effet inférieure aux prédictions théoriques. Si elle venait à se confirmer, cette « crise de l'oxygène solaire » pourrait ébranler les modèles théoriques qui décrivent la structure interne des étoiles.

Comment le détecte-t-on ?
En analysant la lumière en provenance des étoiles, des comètes ou de l'espace interstellaire. Tous les éléments chimiques absorbent ou émettent un rayonnement électromagnétique qui dépend de leur nature et permet de les identifier à l'aide de spectroscopes. Ces instruments séparent les rayonnements à la manière d'un prisme. L'analyse des longueurs d'onde du spectre dévoile ainsi la présence de tel ou tel composant. Sous forme atomique, l'oxygène émet, dans le champ de la lumière visible, une lumière de couleur verte observable dans les aurores boréales, dont la longueur d'onde est de 558 nanomètres. Lié à l'atome d'hydrogène, il émet un rayonnement dans le domaine des ondes radio, à une longueur d'onde de 18 centimètres. Montés sur des télescopes, les spectroscopes sont très souvent embarqués à bord de satellites, car l'atmosphère terrestre absorbe une grande partie des rayonnements électromagnétiques.

Par Marie-Christine de La Souchère

ORIGINE GESTUELLE DU LANGAGE

06/04/2016


L'origine gestuelle du langage
aux origines du langage - par Michael C. Corballis dans mensuel n°341 daté avril 2001 à la page 35 (3700 mots) | Gratuit
Le langage n'est pas apparu subitement dans l'évolution humaine : notre capacité à parler résulte de la conjonction de nombreux éléments neurologiques et anatomiques. L'universalité des langues des signes et notre propension innée à accompagner nos discours de gestes laissent penser que le geste a précédé la parole.

En 1934, alors qu'il dînait avec le philosophe Alfred North Whitehead, le psychologue béhavioriste Burrhus Skinner entreprit de lui expliquer en quoi consistait le béhaviorisme*. Prié de lancer un défi à Skinner, Whitehead énonça la phrase : « Aucun scorpion noir ne tombe sur cette table » , avant de demander à son interlocuteur de lui expliquer la raison de son choix. La réponse se fit attendre plus de vingt ans : Skinner la publia en 1957, en annexe de son ouvrage Verbal Behavior 1 . Selon lui, Whitehead avait exprimé inconsciemment sa crainte du béhaviorisme, le comparant à un scorpion noir auquel il ne permettrait pas de s'immiscer dans sa philosophie. Le lecteur sceptique est autorisé à conclure que cette explication tient plus de la psychanalyse que des principes béhavioristes.

Toujours est-il que Whitehead avait mis à profit l'une des principales caractéristiques du langage humain, qui le distingue des autres formes de communication : sa générativité. Tandis que la communication animale semble toujours limitée à un petit nombre de signaux ne concernant que des contextes bien précis, nos phrases transmettent un nombre infini de notions ou de propositions. Nous comprenons aussi instantanément des combinaisons de mots inédites. Le langage nous permet par ailleurs de nous évader du présent, en évoquant des événements qui se sont déroulés ailleurs et à un autre moment. Nous utilisons le langage pour inventer, par exemple, des événements qui ne se sont jamais produits et qui ne se produiront jamais. Cette remarquable souplesse est en partie possible grâce à une invention humaine : la grammaire, ensemble de règles récursives qui nous permettent de concevoir des phrases aussi complexes que nous le souhaitons. Selon le linguiste Noam Chomsky, cette capacité, qu'il a nommée « grammaire universelle » est exclusivement humaine, et tous les langages humains en dérivent.

Expression simpliste. Pourtant, on a réussi à enseigner des éléments de langage à des singes en captivité. Ainsi, Kanzi, jeune chimpanzé nain étudié par Sue Savage-Rumbaugh, de l'université d'Etat de Géorgie, a réussi à s'exprimer avec un semblant de langage, au moyen de symboles inscrits sur un clavier d'ordinateur, et même à comprendre des ordres oraux modérément complexes formulés en anglais2. Toutefois, les « énoncés » de Kanzi sont généralement limités à l'association de deux ou de trois symboles, et même si l'ordre de ces associations peut être original, leur complexité grammaticale ne dépasse pas celle que maîtrise un enfant de 2 ans. Or, les enfants progressent et finissent par acquérir une grammaire complexe et récursive bien plus complexe que toutes les acquisitions de Kanzi, ou de n'importe lequel de ses congénères. S'il ne fait aucun doute que Kanzi et d'autres grands singes peuvent représenter des actions et des objets du monde réel au moyen de symboles, il leur manque en revanche presque toutes les autres facultés indispensables au « vrai » langage. Comme le fait remarquer Steven Pinker, du Massachusetts Institute of Technology, les singes « n'y arrivent pas » 3 , tout simplement.

On peut donc raisonnablement imaginer que la grammaire est apparue chez les hominidés après la divergence entre ce groupe et celui qui allait évoluer vers les chimpanzés modernes. Quand ? Les avis sont partagés. Pour Derek Bickerton, de l'université d'Hawaii, par exemple, la grammaire n'a pu se former progressivement : son apparition a été un événement isolé et accidentel, intervenu tardivement dans l'évolution des hominidés, au moment où Homo Sapiens lui-même est apparu en Afrique, il y a environ 150 000 ans4. Cela expliquerait pourquoi Homo sapiens a dominé et finalement supplanté tous les autres hominidés, tels l'homme de Neandertal en Europe ou Homo erectus en Asie du Sud-Est.

En se fondant sur des restes fossiles, Philip Lieberman, de l'université Brown, soutient que les hominidés n'ont été que tardivement pourvus de l'appareil phonatoire nécessaire à la parole, et que même l'homme de Neandertal, disparu il y a seulement 30 000 ans, aurait eu des difficultés à articuler. Il affirme lui aussi5 que notre espèce s'est distinguée des autres hominidés par le langage. Quant aux linguistes qui tentent de retracer l'origine de toutes les langues modernes dans une langue originelle commune, ils supposent aussi implicitement que le langage articulé est apparu récemment, et certainement pas avant Homo sapiens .

Admettons un instant cette hypothèse d'une invention récente et exclusivement humaine du langage. Son émergence aurait-elle été préparée par l'existence, chez nos ancêtres, de cris, analogues aux cris d'alarme des singes ou aux hurlements des grands singes ? Il semble que non, en particulier à cause des natures bien distinctes du langage humain et des cris des primates : selon N. Chomsky, le langage humain n'est pas limité dans son expression de la pensée, et est indépendant d'aucun stimulus, tandis que les systèmes de communication entre les animaux comportent un nombre limité de signaux ou de « dimensions linguistiques », dont chacun est associé à une dimension non linguistique. Peter McNeilage, de l'université du Texas à Austin, fait aussi remarquer que les cris des primates constituent le message en eux-mêmes, tandis que les paroles prononcées par les humains peuvent être combinées de façon originale pour créer un message. Selon moi, les cris de nos lointains ancêtres subsistent aujourd'hui dans les cris affectifs des hommes, tels les pleurs, le rire ou les hurlements, plutôt que dans la parole.

Un mode d'expression aussi complexe que le langage humain serait donc apparu lors d'un événement unique, sorte de « Big Bang » linguistique ? C'est difficile à admettre. S. Pinker et Paul Bloom, aujourd'hui à l'université d'Arizona, pensent quant à eux que le langage humain a évolué progressivement, par sélection naturelle. Des primatologues, tel Richard W. Byrne, de l'université de Saint Andrews, en Ecosse, estiment que les grands singes possèdent des capacités cognitives nécessaires au langage, par exemple la capacité à adopter la perspective d'autrui : le développement de ces capacités aurait donc précédé de plusieurs millions d'années la divergence entre notre lignée et celle des chimpanzés. Peut-on réconcilier ces différents points de vue ?

Mon hypothèse est que le langage a émergé progressivement, et d'abord sous la forme de signes manuels : il n'est devenu verbal que récemment dans l'évolution des hominidés, peut-être au moment de l'émergence d' Homo sapiens . Cette hypothèse avait déjà été formulée au XVIIe siècle par le philosophe français Etienne Condillac, et elle a été reprise dans les années 1970 par l'anthropologue américain Gordon W. Hewes. Elle n'a toutefois pas reçu un accueil très favorable parmi les linguistes et les anthropologues, sans doute parce qu'elle met en jeu des mécanismes complexes, et que nous n'avons aucune preuve directe que l'un ou l'autre de nos ancêtres hominidé s'exprimait par gestes au lieu de parler. Toutefois, nous avons de plus en plus d'arguments en faveur de cette théorie.

Examinons d'abord l'évolution des primates. Ce sont principalement des animaux visuels : chez les hommes comme chez les singes, la vue est de loin le plus développé de tous les sens, l'ouïe comprise. Par ailleurs, sauf chez l'homme, les gestes des mains des primates sont principalement contrôlés par le cortex, alors que la vocalisation, en grande partie limitée à des sons exprimant des émotions, est contrôlée par le système sous-cortical. Les premiers hominidés auraient donc été mieux adaptés à la communication intentionnelle avec leurs mains. Cela expliquerait aussi pourquoi l'enseignement de langue des signes à des chimpanzés a eu de meilleurs résultats que les tentatives visant à leur inculquer un langage articulé semblable au nôtre. Un chimpanzé élevé par une famille d'humains a par exemple appris à articuler seulement trois ou quatre mots, alors que des gorilles tel Koko du Gorilla Institute et des chimpanzés tels Washoe et Tatu, qui se trouvent maintenant au Chimpanzee and Human Communication Institute ont appris plusieurs centaines de signes symbolisant divers objets ou actions.

Une autre capacité précurseur du langage est sans doute apparue il y a encore plus longtemps, peut-être 25 ou 30 millions d'années, chez l'un de nos ancêtres communs avec les grands singes et les singes : la réciprocité des gestes. Giacomo Rizzolatti et ses collègues de l'université de Parme ont remarqué que des neurones particuliers, localisés dans l'aire corticale prémotrice des singes, sont actifs lorsque les singes réalisent certains gestes de préhension. En outre, certains de ces neurones, que G. Rizzolatti et ses collègues ont nommés neurones miroirs, sont aussi actifs lorsque les singes observent une personne ou, probablement, un autre singe qui effectue des gestes identiques. Ces neurones sont dans une partie du cortex des singes qui semble avoir les mêmes fonctions que l'aire de Broca du cerveau humain, essentielle à la programmation du langage. L'activité des neurones miroirs a peut-être plus de liens avec des gestes d'échange de nourriture qu'avec le langage, mais G. Rizzolatti et Michael A. Arbib, de l'université de Californie du Sud, ont proposé qu'elle soit une préadaptation à l'élaboration du langage6. Ces neurones seraient peut-être aussi des précurseurs de la faculté d'adopter la perspective d'autrui, que R. Byrne et d'autres considèrent comme un préalable cognitif nécessaire au langage.

L'utilisation des mains pour communiquer est toutefois limitée chez les primates non humains, car ils les utilisent, comme leurs bras, pour leur maintien postural et leur locomotion. La plupart des primates sont en effet arboricoles, et ils s'accrochent ou se balancent de branche en branche grâce à leurs bras. Les grands singes sont plus terrestres, mais ils se déplacent à quatre pattes en terrain découvert. Quant aux chimpanzés et aux gorilles, nos plus proches parents, ils ont une forme particulière de locomotion, nommée « knuckle walking * » , où les mains s'appuient sur le dos des phalanges. En revanche, l'une des caractéristiques distinctives des hominidés est justement la bipédie. Libérés, les mains et les bras sont devenus utilisables pour de nombreuses activités, dont la communication.

Quel avantage déterminant a poussé les hominidés vers la bipédie ? La libération de leurs mains a-t-elle favorisé la manipulation d'outils ? Le transport d'objets ? La communication ?

Communication sociale. L'origine de la divergence entre les hominidés et les grands singes serait la formation de la vallée du Rift, en Afrique. La plupart des hominidés fossiles, de plus de 6 millions d'années à un peu moins de 2 millions d'années, ont été trouvés à l'est du Rift, là où les forêts ont été progressivement remplacées par des savanes, peu arborées. Dans cet environnement, les premiers hominidés auraient été particulièrement exposés aux attaques de chasseurs et de tueurs beaucoup plus spécialisés et efficaces : les ancêtres des tigres, des lions et des hyènes actuels. Cette situation aurait alors favorisé la cohésion et la coopération sociale, pour laquelle une communication efficace est indispensable.

Dans un environnement de ce type, la communication par gestes est plus efficace que la communication vocale. Tout d'abord, elle est silencieuse, et risque peu d'attirer l'attention des prédateurs ou des proies. Ensuite, elle est fondamentalement spatiale, comme la plupart des informations destinées aux congénères : la position de dangereux prédateurs, de gibier ou de carcasses à récupérer. Les habitants de la savane ont peut-être commencé à communiquer par signes en pointant simplement des directions. Du reste, les jeunes enfants apprennent à montrer du doigt très tôt dans leur développement, contrairement aux autres primates, qui ne le font jamais. Selon Merlin Donald, de l'université de Queens à Kingston, dans l'Ontario, ce tout premier type de communication était fondé sur le mime, qui met en jeu les mains et les bras, bien sûr, mais aussi tout le corps7. M. Donald considère que cette forme de communication est distincte du langage, mais je pense pour ma part que c'est un précurseur.

Quoi qu'il en soit, le langage gestuel traduit plus directement la forme réelle des choses et leur position dans l'espace. Nous avons vu que nos lointains ancêtres étaient dotés d'un contrôle fin des mouvements de leurs membres supérieurs, ainsi que de neurones miroirs, qui assurent la correspondance entre l'action manuelle et sa perception. Il semblerait donc logique qu'ils aient développé un langage gestuel plutôt que verbal pour communiquer intentionnellement.

Une origine gestuelle du langage expliquerait aussi l'un des mystères de son évolution : comment des sons ont-ils été arbitrairement associés à des objets ou à des faits ? A de rares exceptions près, des onomatopées telles que « boum » ou « crac » ou le « Pour qui sont ces serpents qui sifflent sur vos têtes ? » de Racine, le son d'un mot ne permet pas d'en déduire quoi que ce soit sur son sens. Les premiers mots imitaient-ils leurs référents ? C'est peu vraisemblable, notamment parce que le langage parlé est unidimensionnel, structuré uniquement dans le temps, tandis que les événements importants de notre monde se déroulent en quatre dimensions d'espace et de temps. Cette restriction ne s'applique pas aux gestes des mains : à l'origine, ils auraient copié le monde physique, puis ils seraient devenus de plus en plus abstraits, avant d'être remplacés par des sons tout aussi abstraits et arbitraires.

Autre argument à l'appui d'une origine gestuelle du langage : des gestes continuent aujourd'hui d'accompagner nos paroles. Certes, la parole contient la grammaire et une grande partie de la représentation symbolique, puisque nous pouvons comprendre un discours enregistré ou radiodiffusé sans grande perte d'informations. Toutefois, les gestes fournissent parfois des compléments d'information ou simplifient des explications. Demandez simplement à quelqu'un de vous expliquer ce qu'est une spirale, ou de vous dire de quelle taille était le poisson qu'il se vante d'avoir pêché ! Nous utilisons aussi spontanément des gestes lorsque nous tentons de communiquer avec des locuteurs étrangers.

Susan Goldin-Meadow et ses collègues de l'université de Chicago ont en outre montré que les gestes sont rapidement investis d'un rôle grammatical lorsque l'on empêche les individus de parler. Des langages gestuels ont par exemple été observés dans des communautés religieuses ayant fait voeu de silence. L'une des langues des signes actuelles les plus élaborées est celle utilisée par les aborigènes australiens, notamment pour contourner les interdictions de parler qui frappent les femmes après le décès d'un proche ou les jeunes hommes pendant leur initiation. Son existence ne prouve pas directement que le langage gestuel a précédé le langage verbal, car elle est fondée sur ce dernier, mais elle fonctionne de façon autonome et est parfaitement grammaticale. Des langages signés ont aussi été largement utilisés par les Indiens des plaines, aux Etats-Unis, où ils auraient permis la compréhension entre des tribus parlant des langues différentes. Toutefois, les langages gestuels les plus étudiés sont les langues des signes développées par les sourds. Il en existe un nombre incalculable de par le monde, et ce sont des langues à part entière, dotées de grammaires parfaitement abouties. L'émergence spontanée de ces langues confirme que la communication gestuelle est aussi « naturelle » à la condition humaine que le langage articulé. Du reste, des enfants uniquement exposés dès leur plus jeune âge à la langue des signes passent par les mêmes phases d'acquisition que les enfants qui apprennent à parler, y compris un stade de « babillage » silencieux en signes !

Signes universels. Si la notion de « grammaire universelle » de Chomsky comporte une part de vérité, elle s'applique au moins autant à la langue des signes qu'au langage articulé. S. Goldin-Meadow et Carolyn Mylander, de l'université de Chicago, ont récemment décrit huit enfants sourds, nés de parents entendants, qui avaient créé des langages signés bien plus élaborés que les gestes de base que leurs parents essayaient de leur apprendre8. Bien que quatre de ces enfants aient grandi aux Etats-Unis, et les quatre autres en Chine, ces langues des signes avaient entre elles plus de points communs qu'avec les signes utilisés par leurs parents respectifs. Ces enfants produisaient spontanément des phrases complexes exprimant plus d'une proposition, et ils ordonnaient leurs gestes de la même manière. Ils avaient aussi adopté spontanément l'ergatif, un cas grammatical qui marque le sujet des verbes transitifs et le distingue du sujet des verbes intransitifs. Par exemple, le mot « souris » est sujet intransitif dans la phrase « la souris entre dans le trou », alors qu'il est sujet transitif dans « la souris mange le fromage ». Dans une langue des signes à structure ergative, « souris » est indiqué par un signe différent dans les deux cas, ce que ne font ni l'anglais ni le chinois. De telles observations corroborent fortement l'hypothèse selon laquelle le développement du langage, verbal ou signé, a une composante innée.

La capacité innée des êtres humains à communiquer par gestes a aussi été mise en évidence dans une étude sur des aveugles de naissance. S. Goldin-Meadow et Jana Iverson, de l'université d'Indiana, ont observé douze non-voyants qui parlaient avec le même débit qu'un groupe de voyants : alors qu'ils ne pouvaient reproduire des gestes d'autres personnes, ils employaient le même type de gestes pour faire passer les mêmes informations, par exemple, la main prenant la forme d'un C incliné en l'air indiquait qu'un liquide était versé d'un récipient9. Il est déjà assez surprenant que les non-voyants fassent des gestes tout en parlant : les gestes semblent bien intimement liés avec l'acte de parler. Or, ce lien trouve son origine dans le cerveau.

Tout comme le langage verbal, la langue des signes employée par les sourds semble être principalement traitée par l'hémisphère cérébral gauche. En effet, des lésions de la région gauche du cerveau peuvent entraîner des difficultés à « signer » comparables à des troubles de la parole. Par exemple, des lésions sur la partie antérieure du cortex cérébral, dans la région de l'aire de Broca, causent des troubles dans la production des signes, alors que des lésions plus postérieures entraînent des difficultés de compréhension des signes. Helen J. Neville et ses collègues de l'université d'Oregon ont observé, en imagerie par résonance magnétique fonctionnelle, l'activité cérébrale de sourds qui regardaient d'autres personnes en train de « signer »10 : non seulement les aires de Broca et de Wernicke, les deux aires impliquées dans le langage et situées dans l'hémisphère gauche du cerveau, étaient activées, mais cette activité était comparable à celle de personnes entendantes qui écoutaient des phrases articulées. L'hémisphère droit du cerveau des sourds était toutefois plus actif que celui des entendants, peut-être à cause de la composante spatiale des gestes une fonction surtout traitée par l'hémisphère droit.

L'origine gestuelle du langage expliquerait aussi le lien étroit qui existe entre la latéralisation* des membres et l'asymétrie cérébrale. En effet, presque tous les droitiers utilisent majoritairement leur hémisphère cérébral gauche pour parler. Chez les gauchers, la situation est plus confuse : 60 % environ d'entre eux utilisent surtout l'hémisphère gauche pour parler, 20 % l'hémisphère droit, et 20 % ont une représentation bilatérale dans le cerveau. Doreen Kimura, aujourd'hui à l'université Simon Frasier, a aussi remarqué que les droitiers ont tendance à accompagner leurs paroles de gestes de la main droite, alors que les gauchers utiliseraient plutôt les deux mains. Selon des modèles génétiques de latéralisation proposés indépendamment par Marian Annett, de l'université de Leicester, et Christopher McManus, de l'University College de Londres, un gène contrôlerait la dominance de l'hémisphère gauche à la fois pour la parole et pour les gestes des mains. Chez les individus dépourvus de ce gène, la latéralisation serait aléatoire, et dissociée du langage. Ce gène pourrait avoir été sélectionné au moment où la verbalisation commençait à apparaître pour accompagner les gestes de communication chez les hominidés, voire pour les remplacer.

Bien entendu, d'autres interprétations de la relation anatomique entre les gestes de la main et les aires cérébrales du traitement du langage ont été proposées. Ainsi, pour Elizabeth Bates, de l'université de Californie à San Diego, le langage est un système parasite, qui s'est greffé sur des aires cérébrales dévolues à l'origine à des fonctions plus élémentaires, et qu'elles continuent d'ailleurs d'accomplir. Cela concernerait les aires motrices du cortex frontal, ainsi que les aires sensorielles qui traitent à la fois la perception auditive et les différentes informations constitutives de ce que nous appelons le « sens ». Ainsi, le langage et les gestes sont toujours pensés et exécutés simultanément parce qu'ils sont traités par le même système nerveux. Le langage « déteint » inévitablement sur les gestes, qui n'en sont qu'un sous-produit.

De ce point de vue, les gestes de la main ne seraient que la cinquième roue du carrosse langagier. Le lecteur aura compris que, pour moi, ils sont plutôt les vestiges du « monocycle » sur lequel le langage a commencé à évoluer. La richesse des langues des signes et des gestes de la main démontre qu'ils n'ont rien d'accessoire. Les gestes ne sont pas en effet associés n'importe comment au discours, et ils peuvent faire passer des informations de façon systématique.

Paroles avantageuses. Si le langage était à l'origine gestuel, pourquoi parlons-nous ? Même si les premiers hominidés jouissaient d'une plus grande prédisposition pour la communication gestuelle, et que les signes silencieux aient eu la préférence dans la savane, le passage à la verbalisation devait présenter quelques avantages. Par exemple, les paroles se transmettent dans l'obscurité, lorsque des obstacles empêchent les interlocuteurs de se voir, ou encore sur des distances relativement grandes. Pour S. Goldin-Meadow et ses collègues, si les mains et la voix se partagent la tâche de communiquer, c'est parce qu'il est plus efficace de faire passer la grammaire via la syntaxe et de laisser le composant iconique aux mains, plutôt que de confier la syntaxe et le sens aux mains. Plus important encore, la verbalisation aurait libéré une nouvelle fois les mains de nos ancêtres, leur offrant la possibilité d'accompagner d'une démonstration leurs explications verbales de la fabrication et du maniement des outils.

Le passage du langage gestuel au langage articulé n'a certainement pas été soudain. Des grognements et des couinements ont commencé par ponctuer le premier langage gestuel, comme les gestes agrémentent aujourd'hui nos paroles - et pas seulement chez les Italiens. Mais la communication verbale aurait exigé des modifications importantes de l'appareil phonatoire, ainsi que le transfert du contrôle de la verbalisation des aires subcorticales vers les aires corticales. On peut raisonnablement supposer, avec P. Lieberman, que ces modifications n'ont pas été effectives avant une époque relativement récente de l'évolution des hominidés, peut-être seulement à l'apparition d' Homo sapiens , il y a environ 150 000 ans.

Par Michael C. Corballis

 

DOCUMENT    larecherche.fr     LIEN

NAISSANCE DES NEURONES

02/04/2016

Naissance des neurones et mort d'un dogme
neurones à volonté - par Heather Cameron dans mensuel n°329 daté mars 2000 à la page 29 (4155 mots) | Gratuit
En quelques années, plusieurs découvertes se sont succédé qui confirment ce qui était autrefois une hérésie : des neurones continuent à naître dans le cerveau adulte des mammifères, y compris l'homme, et ce tout au long de la vie. Des perspectives thérapeutiques révolutionnaires s'ouvrent à nous. Mais de nombreux points restent à éclaircir, et notamment la relation qu'entretient cette neurogenèse avec la mémoire.

On estime généralement que tous les neurones de notre cerveau sont présents dès la naissance. Ce fait est considéré comme une caractéristique essentielle du cerveau des mammifères, et il a plusieurs conséquences importantes ; ainsi, tous les processus d'apprentissage à l'âge adulte s'organisent dans le cadre d'un cerveau anatomiquement stable, et toute mort de neurones à la suite d'une lésion ou d'une maladie entraîne un déficit permanent. Mais nous savons maintenant que ce dogme n'est pas parfaitement exact. Certains types de neurones continuent à être produits tout au long de la vie chez toutes les espèces de mammifères étudiées, y compris l'homme. L'existence de cette neurogenèse la production de nouveaux neurones pourrait modifier les théories du fonctionnement cérébral. Sa compréhension et sa maîtrise permettraient le développement d'outils thérapeutiques exceptionnels pour le traitement des lésions cérébrales ou des maladies neurodégénératives, entre autres.

La vision du cerveau adulte comme un organe anatomiquement stable trouve probablement son origine dans la différence de plasticité entre les cerveaux d'enfant et d'adulte, c'est-à-dire leurs capacités différentes à se modifier en réponse à des perturbations de l'environnement. Cliniquement, on sait depuis longtemps que le cerveau humain en développement, pendant l'enfance, se révèle beaucoup plus capable que le cerveau adulte de récupérer après une lésion. Expérimentalement, on avait constaté que les hormones ont sur le cerveau et sur le comportement des effets anatomiques permanents - des effets dits d'organisation - lorsque l'exposition a lieu pendant le développement, alors qu'elles n'exercent à l'âge adulte qu'une action réversible. Un phénomène similaire avait été observé dans le système visuel : si les signaux visuels reçus pendant la période de développement sont anormaux, le système visuel cérébral est altéré de manière définitive, alors que ces anomalies des stimuli visuels n'ont pas d'effet durable à l'âge adulte. Cette phase du développement caractérisée par une grande plasticité anatomique et comportementale est appelée période critique. Les études sur la prolifération cellulaire confortèrent cette idée d'une différence radicale entre le cerveau en développement et le cerveau adulte : il était facile d'observer des neurones en division dans le cerveau embryonnaire ou à la période postnatale précoce, mais il était extrêmement difficile d'en trouver à l'âge adulte. De plus, on pensait, sur la base de critères morphologiques, que les cellules en division que l'on parvenait à découvrir étaient des précurseurs de cellules gliales* et non de neurones.

Cette différence - qualitative en apparence - de plasticité entre le cerveau en développement et le cerveau adulte a été introduite dans les théories sur le fonctionnement du cerveau. Alors que la capacité à réparer les lésions par la régénération des cellules perdues semble comporter d'énormes avantages et que le phénomène s'observe dans de nombreux tissus, il devait exister une raison extrêmement importante pour que les neurones cérébraux ne se renouvellent pas. Les théories sur la nécessité de la stabilité du cerveau pour que les pensées et les souvenirs puissent se conserver sur toute la durée de vie se fondent sur cette idée que les neurones du cerveau adulte ne se renouvellent pas ; à l'inverse, ces théories ont renforcé la conviction selon laquelle le cerveau adulte est structurellement stable1.

C'est dans les années 1960 que l'on s'aperçut pour la première fois que de nouveaux neurones apparaissent dans le cerveau des mammifères adultes. Cette découverte est due à Joseph Altman, qui s'intéressait alors à la prolifération cellulaire induite par des lésions, dans le cerveau du rat. A l'époque, on pensait que, dans le système nerveux, seules les cellules gliales pouvaient se régénérer. Ainsi, après une lésion du cerveau, on peut observer « une cicatrice gliale ». Comme une cicatrice sur la peau, elle est due à la régénération de cellules, en l'occurrence des astrocytes*. Cependant, outre ce renouvellement glial, Altman observa d'autres cellules nouvelles qui ressemblaient davantage à des neurones. Cette observation était très surprenante car elle contredisait la théorie en vigueur depuis des dizaines d'années et selon laquelle les neurones ne sont produits que pendant une période limitée du développement.

C'est par une caractérisation morphologique que les nouvelles cellules furent identifiées comme neurones. Ceux-ci sont en effet plutôt plus volumineux que les cellules gliales, et apparaissent plus clairs qu'elles avec les colorants classiques. Ce type d'argument, bien qu'évocateur, n'est pas considéré comme concluant, surtout lorsqu'il s'agit d'une question aussi controversée que la neurogenèse chez l'adulte. Pourtant, il y avait effectivement naissance de nouveaux neurones dans le cerveau des mammifères adultes. C'était seulement difficile à prouver. Vers la fin des années 1970 et dans les années 1980, les chercheurs purent montrer que des cellules nées dans le cerveau du rat adulte possédaient des synapses, ces connexions spécialisées qui n'existent qu'entre neurones. C'était la preuve de la naissance de nouveaux neurones, mais la technique de recherche des synapses sur les cellules nouvellement apparues prenait un temps considérable, et le nombre de nouveaux neurones identifiés était extrêmement faible, à peine deux ou trois cellules par cerveau. Du coup, il était facile de considérer la neurogenèse chez l'adulte comme un phénomène négligeable, peut-être un processus ancestral hérité du cerveau des lézards ou des oiseaux, chez lesquels la neurogenèse à l'âge adulte est relativement abondante. Ces dernières années, néanmoins, les techniques immunohistochimiques ont révolutionné de nombreux domaines de la biologie. Elles permettent l'identification de centaines de types cellulaires, y compris les neurones et les cellules gliales, en fonction des protéines particulières qu'ils expriment, au moyen d'anticorps auxquels sont fixés un marqueur visible, par exemple une molécule fluorescente. Avec des marqueurs spécifiques, on a pu observer au début des années 1990 de très nombreux neurones nouveau-nés dans le cerveau adulte. Cette technique a permis une analyse quantitative du nombre de ces nouveaux neurones, et on a ainsi pu étudier les modifications de la production neuronale en réponse à divers traitements expérimentaux.

Nier la neurogenèse devenait impossible. Depuis, elle a été décrite chez toutes les espèces de mammifères étudiées, et notamment chez le rat, la souris, la musaraigne, les primates du Nouveau Monde et ceux de l'Ancien Monde, dont l'homme2, 3. Il apparaît également que cette neurogenèse concerne des zones cérébrales plus étendues qu'on ne le pensait encore très récemment. En effet, on crut tout d'abord que les seuls neurones dotés de cette capacité de renouvellement étaient les cellules granulaires ou simplement « grains » du bulbe olfactif et de la région du g yrus dentatus ou corps godronné de l'hippocampe p. 33. Mais Elizabeth Gould, de l'université de Princeton, a mis en évidence dans un article publié en octobre dernier une production de nouveaux neurones dans certaines régions précises du cortex des primates4. Cette découverte est extrêmement intéressante, non seulement parce que le cortex intervient dans les processus cognitifs dits de haut niveau, bien développés chez l'homme et les autres primates, mais aussi parce qu'elle donne à penser que de nouveaux neurones pourraient apparaître dans d'autres régions du cerveau des mammifères qui n'ont pas encore été examinées d'assez près.

Malgré tout, le vieux dogme n'est pas entièrement faux. Il semble bien que, dans leur grande majorité, les neurones du cerveau adulte aient été produits aux alentours de la naissance. Et, s'il n'est pas actuellement possible d'exclure une poursuite de la neurogenèse dans d'autres régions cérébrales, il ne semble pas que ce renouvellement tout au long de la vie puisse concerner tous les types de neurones. Dans l'hippocampe, qui a été étudié de manière très approfondie, il paraît clair que si les cellules granulaires se reproduisent à l'âge adulte, ce n'est pas le cas des autres populations neuronales de la région. Il en va de même du bulbe olfactif. D'après les connaissances actuelles, il semble donc que seuls certains sous-types de neurones se régénèrent à l'âge adulte, même dans les régions dites neurogènes. Aujourd'hui encore, on ne sait pratiquement rien de l'identité des nouveaux neurones corticaux, on ignore notamment s'ils appartiennent ou non à un seul sous-type neuronal.

Il semble également probable qu'on ne découvrira pas de neurogenèse dans toutes les régions cérébrales. La récente étude sur le néocortex des primates a mis en évidence des neurones nouveaux dans trois régions du cortex associatif les zones préfrontale, temporale inférieure et pariétale postérieure ; en revanche, malgré un examen attentif, il n'a été observé aucun renouvellement dans le cortex strié. Ce résultat est particulièrement intéressant, car le cortex associatif joue un rôle important dans les fonctions cognitives de haut niveau, alors que le cortex strié intervient dans le traitement des informations d'origine visuelle. Cette différence donne à penser que la neurogenèse pourrait jouer un rôle clé dans des fonctions plastiques par essence, alors qu'elle serait sans objet pour des fonctions de bas niveau comme le traitement des données sensorielles, qui sont en général stables tout au long de la vie. Cette idée cadre bien avec ce que l'on sait de la neurogenèse dans le reste du cerveau. Ainsi, il a récemment été démontré que l'apprentissage olfactif a lieu au sein du bulbe olfactif et fait intervenir les neurones granulaires, et on sait par ailleurs depuis longtemps que l'hippocampe est une région importante pour l'apprentissage et la mémoire. On notera néanmoins que si leur localisation incite à penser que les neurones apparus à l'âge adulte peuvent jouer un rôle dans les processus d'apprentissage et de mémoire, rien n'indique qu'ils aient effectivement une fonction. Cela ne veut pas dire qu'ils ne soient pas fonctionnels ; cela traduit seulement les difficultés techniques qui empêchent de recueillir les informations nécessaires. En effet, il est difficile de caractériser les neurones nouveau-nés par l'électrophysiologie, car celle-ci ne permet absolument pas de déterminer l'âge d'une cellule vivante. Les études comportementales sur la neurogenèse à l'âge adulte sont également délicates parce que les manipulations utilisées pour inhiber la neurogenèse perturbent aussi le fonctionnement des autres neurones et des cellules gliales, et qu'il est donc impossible d'établir le lien direct qu'elle pourrait avoir avec une modification comportementale. Surmonter ces obstacles techniques est un enjeu essentiel, car la fonction de la neurogenèse à l'âge adulte est certainement la question qui suscite le plus d'intérêt.

Bien qu'on ne sache pas grand-chose de la fonction des neurones apparus à l'âge adulte, de nombreux travaux ont permis d'élucider plusieurs aspects de leur prolifération, de leur différenciation et de leur survie. C'est dans le gyrus dentatus que la neurogenèse à l'âge adulte est la mieux connue ; jusqu'à présent, cette région est aussi la seule où une neurogenèse ait été observée chez l'homme adulte. Le nombre des neurones qui y apparaissent est loin d'être négligeable, puisqu'il suffit à renouveler plusieurs fois toute la population des neurones granulaires au cours de la vie d'un rongeur. Cependant, cette production de nouveaux neurones ne paraît pas répondre à un modèle de simple renouvellement, dans lequel des cellules neuves viendraient remplacer les neurones qui meurent. Ainsi, certains neurones granulaires persistent pendant toute la vie de l'animal, alors que d'autres n'ont qu'une brève durée de vie. Les nouveaux neurones pourraient augmenter l'effectif de la population totale, ou bien remplacer les cellules qui meurent sans modifier l'effectif total, et la neurogenèse pourrait donc avoir pour objet de modifier soit l'effectif de cette population, soit l'âge moyen des neurones qui la constituent. Par ailleurs, le rythme de production des neurones n'est pas constant, mais modulé en permanence par des signaux provenant des milieux interne et externe. Peut-être sera-t-il possible de se faire une idée de la fonction des nouveaux neurones à partir de la compréhension des facteurs qui contrôlent la neurogenèse. En ce qui nous concerne, nous avons découvert que deux facteurs contrôlant la neurogenèse dans le gyrus dentatus chez l'adulte jouent tous deux un rôle important dans les processus hippocampiques d'apprentissage et de mémoire, une relation que nous allons détailler maintenant.

Le premier de ces facteurs est le stress, qui réduit la production de nouveaux neurones granulaires5. Le fait a été démontré par deux tests classiques, chez des primates installés dans la cage d'un mâle qui ne leur était pas familier et chez des rats exposés à l'odeur d'un prédateur. Ces effets du stress sur la prolifération cellulaire sont dus à la modification de la concentration d'hormones : les corticoïdes6. Cette observation a été confirmée par l'ablation des glandes surrénales situées au-dessus des reins, comme leur nom l'indique, elles produisent la principale de ces hormones. Elle entraîne une augmentation de la production de nouveaux neurones. Comme les concentrations d'hormones corticoïdes évoluent selon un cycle diurne, la production de nouveaux neurones varie sans doute au cours de la journée, passant par un minimum au réveil et par un maximum douze heures plus tard. Il est probable que des facteurs de stress mineurs et de courte durée ralentissent la neurogenèse pendant plusieurs heures, alors que le stress chronique pourrait la bloquer pendant plusieurs semaines ou plusieurs mois. Quel sens donner à ces résultats ? On considère souvent le stress comme quelque chose de négatif. Cependant, toute expérience nouvelle s'accompagne d'une élévation des concentrations d'hormones corticoïdes et d'autres signes de stress léger, phénomènes qui sont en fait importants pour l'apprentissage qu'impliquent ces situations nouvelles. Pourquoi ralentir la production de nouveaux neurones dans l'hippocampe pendant ce genre de situations ? Il semble que la survie des nouveaux neurones soit meilleure pendant les phases d'apprentissage. Il est donc possible qu'un ralentissement de leur production soit nécessaire pour éviter toute surpopulation.

Dans les processus hippocampiques d'apprentissage, un autre signal important est la liaison d'un neurotransmetteur, le glutamate, à un récepteur appelé NMDA7. Si les récepteurs NMDA sont bloqués, les rats sont incapables d'améliorer leurs performances aux tests de mémoire spatiale faisant intervenir l'hippocampe, comme la classique localisation d'une plate-forme immergée dans une piscine. Le blocage des récepteurs NMDA accroît la production de neurones granulaires et, à l'inverse, une activation de ces récepteurs réduit la production de ces neurones. Paradoxalement, les cellules en cours de division ne portent pas de récepteurs NMDA. Comment le glutamate exerce-t-il son action ? Il pourrait contrôler indirectement la prolifération par l'intermédiaire de signaux provenant des neurones granulaires matures. Ceux-ci émettraient en fait des signaux différents commandant aux cellules précurseurs de se diviser, lorsque leurs récepteurs NMDA sont inactifs. Par ailleurs, de nouvelles données montrent que d'autres neurotransmetteurs, comme la sérotonine et les opiacés, contrôlent eux aussi la prolifération des précurseurs des neurones granulaires ; on est donc conduit à penser que le niveau global d'activité des neurones granulaires matures pourrait contrôler la production des nouvelles cellules. Il existe un autre argument allant dans ce sens : la destruction d'un petit nombre de neurones granulaires matures active aussi la prolifération de leurs précurseurs8. Or les neurones granulaires morts sont inactifs, extrêmement, ce qui cadre avec l'idée selon laquelle une baisse d'activité de ces neurones serait le signal d'une augmentation de la production de nouveaux neurones. On aboutit à un modèle dans lequel les neurones granulaires actifs, dont on peut supposer qu'ils fonctionnent correctement, s'opposent à la production de nouveaux neurones, alors que les neurones silencieux parce qu'ils sont malades ou parce qu'ils ne participent pas à des circuits utiles ou importants déclenchent la production de nouveaux neurones destinés à prendre leur place.

La mise en évidence de la neurogenèse chez l'être humain adulte a suscité des espoirs considérables. La perspective de réparer le cerveau, ou de lui offrir des cures de rajeunissement a été évoquée à de multiples reprises. Qu'en est-il aujourd'hui ?

On a trouvé des neurones nouveau-nés dans l'hippocampe chez les plus âgés des rats et des singes étudiés, et chez des êtres humains jusqu'à l'âge de 72 ans. Mais le nombre de ces nouveaux neurones chute jusqu'à 10 % à peine de la production qu'on observe chez l'adulte jeune. Cette baisse liée à l'âge pourrait s'expliquer par le fait que les précurseurs immatures dotés de la capacité de division et de production de nouveaux neurones persisteraient plus longtemps dans cette région que dans la plupart des autres, mais finiraient malgré tout par mourir. Toutefois, nous avons récemment découvert que, si l'on supprime les corticoïdes surrénaliens chez des rats âgés, la prolifération retrouve le même niveau que chez les adultes jeunes9. Or, les concentrations de corticoïdes sont élevées chez les rats âgés. Ces hormones paraissent donc être responsables de la baisse de la neurogenèse avec l'âge. Fait intéressant, on observe chez certains êtres humains âgés un niveau élevé ou croissant d'hormones corticoïdes, et ce groupe de personnes est beaucoup plus affecté par ce qu'on appelle les pertes de mémoire bénignes de la sénescence liées au vieillissement normal qui diffèrent de celles liées, par exemple, à la maladie d'Alzheimer10. On pense que les pertes de mémoire en question sont liées à la formation hippocampique, où justement la production de neurones granulaires diminue11. Il est donc possible qu'elles soient liées à la diminution de la neurogenèse. A l'heure actuelle, cette relation n'est qu'une corrélation, mais la possibilité - fascinante - existe qu'un abaissement des taux de corticoïdes chez les personnes âgées puisse relancer la neurogenèse et corriger leurs troubles de la mémoire.

Des modifications de la neurogenèse interviennent peut-être aussi dans d'autres troubles hippocampiques comme la maladie d'Alzheimer, les pertes de mémoire consécutives aux accidents vasculaires cérébraux, ou l'épilepsie12 . Si ces hypothèses se vérifiaient, une normalisation de la prolifération des neurones granulaires pourrait contribuer à guérir ces différentes maladies cérébrales. Mais il y a plus encore : on saura peut-être un jour provoquer une régénération dans des populations neuronales qui ne se renouvellent pas normalement, ce qui permettrait de remplacer dans l'ensemble du cerveau les cellules perdues à la suite de lésions ou de maladies. Cependant, rien n'indique encore qu'il soit possible de forcer à se renouveler des neurones qui ne le font pas normalement chez l'adulte. A cette fin, il faudrait tout d'abord comprendre pourquoi la plupart des neurones ne se reproduisent pas à l'âge adulte. On pourrait ainsi se demander quelles sont les caractéristiques communes à ceux qui conservent au contraire cette capacité. A plusieurs égards, ces sous-types de neurones sont très différents les uns des autres. Les neurones granulaires du bulbe olfactif sont inhibiteurs, alors que ceux de l'hippocampe sont excitateurs. Dans le bulbe olfactif, ce sont des interneurones, renvoyant des signaux aux cellules qui leur ont adressé des messages, alors que les grains du gyrus dentatus sont des neurones projectifs, qui envoient des axones véhiculant le principal signal d'entrée des neurones pyramidaux de l'hippocampe. Les neurones corticaux nouveau-nés ont un axone, mais on ne sait pas encore s'ils sont excitateurs ou inhibiteurs, ou s'il en existe des deux types. Néanmoins, ces deux populations possèdent des points communs, le plus manifeste étant bien entendu leur dénomination : cellules granulaires, ou grains. Dans les deux cas, ils furent baptisés par les anciens anatomistes en raison de leur corps cellulaire arrondi et très petit. En outre, ces deux types cellulaires ont tous les deux un arbre dendritique relativement simple, peu ramifié, c'est-à-dire une structure probablement plus facile à produire dans le cerveau mature où l'espace libre est bien moins abondant que dans le cerveau en développement.

Il est possible que les précurseurs neuronaux persistant dans le cerveau adulte n'aient que des possibilités limitées et ne puissent se différencier que pour donner des neurones dotés seulement de ces structures élémentaires. Pourtant, même des cellules immatures transplantées à partir d'un cerveau embryonnaire se révèlent incapables de produire des neurones dans des régions du cerveau adulte où il n'y a pas normalement de neurogenèse. Il existerait donc, dans ces régions particulières, des signaux contrôlant quels types de neurones pourront, ou non, se régénérer à l'âge adulte. De tels signaux existent pendant le développement. Produits au moment voulu et provenant de diverses localisations, ils sont essentiels au développement morphologique des neurones et à l'établissement de leurs connexions, mais ils sont presque certainement absents dans la plus grande part du cerveau adulte. En effet, avec la maturation du système nerveux, les neurotransmetteurs de l'embryogenèse et de l'enfance sont remplacés par ceux de l'âge adulte. Point intéressant, le développement des deux populations de neurones qui se régénèrent à l'âge adulte commence très tard ; les premiers neurones granulaires des deux types apparaissent deux jours avant la naissance chez le rat, à un moment où cesse la production de la plupart des autres neurones. Ce détail est peut-être important, parce que cela signifie que les signaux nécessaires au développement de ces cellules proviennent probablement de neurones relativement matures, qui pourraient persister à l'âge adulte.

Malheureusement, on sait actuellement très peu de chose sur les signaux qui commandent normalement la différenciation et l'intégration en réseaux de la plupart des neurones. Dans le gyrus dentatus adulte, les nouveaux neurones granulaires envoient leur axone en direction des bonnes cellules cibles les cellules pyramidales CA3, et les connexions s'établissent assez rapidement - dans les quatre à dix jours après la fin de la division cellulaire13. Il ressort par ailleurs que cette intégration en circuits est essentielle à la survie des nouveaux neurones ; chez le rat de laboratoire normal, la moitié environ des neurones granulaires nouveau-nés meurent entre une et deux semaines après leur apparition, mais le taux de survie est beaucoup plus élevé si on soumet les rats à des tâches d'apprentissage. Cet effet ne s'observe que si les tâches en question font intervenir l'hippocampe, et s'il y a apprentissage véritable, et non pas seulement activation hippocampique. Peu après la connexion des nouvelles cellules à d'autres neurones, une activation spécifique des circuits ainsi établis est donc probablement nécessaire pour que les nouveaux neurones survivent. Comme l'activation des récepteurs NMDA est un élément essentiel de l'apprentissage hippocampique, il est probable que ces récepteurs sont importants pour la survie et pour la production de nouveaux neurones granulaires dans le gyrus dentatus . Serait-ce l'un des signaux recherchés ? Quoi qu'il en soit, pour remplacer les neurones disparus partout dans le cerveau, il faudra résoudre le problème complexe consistant à fournir tous les signaux nécessaires à leur bonne maturation morphologique et à leur intégration spatiale et temporelle.

Outre le fait qu'elle ouvre des perspectives en matière de réparation du cerveau, la neurogenèse à l'âge adulte modifie la manière dont il faut envisager le fonctionnement normal du cerveau. Depuis quelques années, on observe de plus en plus de signes de plasticité anatomique du cerveau adulte, à plusieurs niveaux, et notamment en ce qui concerne la forme et le nombre des synapses. Cependant, certains scientifiques tiennent encore pour une forme très rigoureuse d'hypothèse du cerveau stable, selon laquelle il n'y aurait aucune plasticité anatomique du cerveau adulte, et notamment du cortex ; ils estiment que la plasticité fonctionnelle qui sous-tend les mécanismes d'apprentissage suppose des modifications de la force des synapses, produites par une modification des récepteurs ou de l'environnement intracellulaire des neurones, au niveau moléculaire. Mais on sait désormais que certains neurones de régions importantes dans les processus d'apprentissage se renouvellent continuellement - ce qui constitue une modification anatomique relativement importante. Les populations de neurones où persiste une neurogenèse échangent toutes des informations avec d'autres populations considérées comme stables pendant toute la vie. Le remplacement de ces sous-populations disséminées signifie que des populations neuronales stables interagissent continuellement avec des populations qui ne cessent de changer, et que les neurones à longue durée de vie doivent établir de nouvelles synapses, ce qui modifie probablement la forme de leur arborescence dendritique. On a observé une formation et une disparition rapide des synapses au niveau des cellules pyramidales de l'hippocampe, mais il est probable que le même phénomène se produise aussi dans d'autres régions cérébrales. Même les populations non neurogènes pourraient donc être moins fixes morphologiquement qu'on ne le pensait auparavant. On est donc conduit à imaginer un modèle complexe de la plasticité cérébrale, dans lequel différentes sous-populations neuronales interagissent et font intervenir des types de plasticité différents, concernant l'expression des protéines, la morphologie cellulaire ou le renouvellement des neurones.

Ce modèle s'oppose à l'hypothèse d'un cerveau anatomiquement stable, mais il n'entre pas forcément en contradiction avec l'idée selon laquelle une population stable de neurones serait nécessaire à la conservation des souvenirs à long terme. Après tout, l'expérience nous apprend que le cerveau est performant pour garder des souvenirs sur des dizaines d'années, mais qu'il sait aussi bien oublier. Notre cerveau reçoit chaque jour tant d'informations nouvelles qu'il est absolument essentiel de les trier et d'éliminer des données sans importance ou dont nous n'avons plus besoin. On ne sait pratiquement rien de la manière dont s'effectuent ces processus, mais il est intéressant de rappeler que l'une des fonctions attribuées à l'hippocampe serait celle de transformer les souvenirs à court terme en souvenirs durables. Il est possible que les neurones à longue durée de vie, peu plastiques, soient essentiels pour la mémoire à long terme, ainsi que pour des fonctions sensitives et motrices qui n'ont pas besoin de changer beaucoup à l'âge adulte, alors que les neurones qui régénèrent interviendraient dans les processus rapides d'apprentissage et de mémoire à court terme.

Par Heather Cameron

NEUROSCIENCES

28/03/2016

Un psychanalyste face aux neurosciences texte intégral
et aussi - par André Green dans mensuel n°99 daté mai 2000 à la page 93 (5516 mots) | Gratuit
Le débat entre psychanalyse et neurosciences a trait, entre autres à l'idée que nous nous faisons de la vie psychique et de la spécificité de l'homme. L'article que l'on va lire aurait dû être le premier d'une série sur les rapports entre biologie et psychanalyse. Il en est le second. En effet, en 1989, la publication du livre de J.-P. Changeux et A. Connes, « Matière à pensée », nous avait semblé propice pour aborder enfin ce problème. Nous avions alors de mandé à A. Green, psychanalyste qui avait déjà discuté les thèses de J.-P. Changeux, de donner son point de vue sur les rapports de la neurobiologie et de la psychanalyse. Son texte fut envoyé fin 1990 à J.-P. Changeux pour qu'il le discute. Ce dernier a préféré écrire un article indépendant que nous avons publié dans notre numéro de juin1992 sous le titre « Les neuronesde la raison ». Le débat prévu à l'origine n'a pas eu lieu. Nous publions donc le texte original d'André Green dans le présent numéro, suivi des réflexions que la lecture des « neurones de la raison » a inspiré au psychanalyste. Ainsi le lecteur pourra-t-il se faire une idée de la diversité et de la vivacité des opinions sur ce sujet.

Dans leur jargon d'initiés, les psychanalystes emploient le verbe « chaudronner » par allusion à l'histoire racontée par Freud dans Le mot d'esprit et sa relation à l'inconscient : « A emprunte un chaudron de cuivre à B. Une fois qu'il l'a rendu, B fait traduire A en justice en l'accusant d'être responsable du gros trou qui se trouve maintenant dans le chaudron, et qui rend l'ustensile inutilisable. A présente sa défense en ces termes : " Primo, je n'ai jamais emprunté de chaudron à B ; secundo, le chaudron avait déjà un trou lorsque B me l'a donné ; tertio, j'ai rendu le chaudron en parfait état " ». Bref, une accumulation de dénis qui s'annulent logiquement.

Les scientifiques n'agissent pas autrement à l'égard de l'inconscient, et au-delà à l'égard de la psychanalyse. J'entends encore Jacques Monod disant « Montrez-moi une seule preuve de l'inconscient ! », bien convaincu qu'il saurait en démontrer l'inanité. Plus tard, la stratégie devait changer. « L'inconscient, mais bien sûr qu'il existe ; il est certain que la conscience n'est qu'une toute petite partie de ce qui vit : tout ce qui n'est pas conscient est inconscient. Tous les mécanismes biologiques sont inconscients, la majeure partie des mécanismes cérébraux se passent en dehors des structures biologiques de la conscience » disait-on. Dans le même ordre de logique, vers les années 1950, les neurophysiologistes n'avaient d'yeux que pour les structures cérébrales régulant la conscience. Avec ces études, la neurobiologie de l'inconscient était à portée de main 1. L'inconscient des neurobiologistes était cependant fort différent de l'inconscient de Freud. Puis avec les neurotransmetteurs, la chimie a relayé l'électricité. Le chaudron, cette fois, bouillonnait. L'énigme des maladies mentales était à deux doigts d'être levée. Bientôt la psychogenèse ne serait plus qu'un souvenir datant de la préhistoire de la psychiatrie. L'ambivalence n'existait pas chez les biologistes. En 1953, on découvrait les premiers neuroleptiques. A Sainte-Anne, dans le service hospitalier qui était La Mecque de la toute nouvelle psychopharmacologie, Jacques Lacan tenait aussi son séminaire de psychanalyse. Les drogues psychotropes auraient-elles fait bon ménage avec l'inconscient ? Jean Delay, le maître de céans, psychiatre et homme de lettres, rêvait déjà de psychothérapies qui supplanteraient la vieille psychanalyse par des méthodes mixtes : narcoanalyse supposée faciliter la levée du refoulement grâce au « sérum de vérité » ; cures sous champignons hallucinogènes, imprudemment prônées comme agents libérateurs de l'imaginaire, etc. Les psychanalystes du crû récusèrent l'invitation. Nos psychiatres d'alors n'avaient pas perçu dans quel engrenage ils risquaient d'être broyés. Et l'on aurait eu beau jeu de nos jours, s'ils avaient fait un autre choix que celui de leur cohérence, d'accuser les psychanalystes d'avoir favorisé la toxicomanie ! Le temps passant, le développement de la psychopharmacologie allait profiter, pensait-on, du progrès des neurosciences. La neurobiologie devenant moléculaire, on allait pouvoir balayer toute cette métaphysique de pacotille, pour qu'enfin la psychiatrie devienne moléculaire à son tour. Les ouvrages comme L'homme neuronal procèdent de cette inspiration. Il suffit cependant que l'on aborde le problème des aspects affectifs des comportements pour qu'un autre neurobiologiste, Jean-Didier Vincent, auteur d'une Biologie des passions 2 nous ramène à une vision plus nuancée, bien éloignée du triomphalisme parti à l'assaut de ce que Changeux appelait la « Bastille du mental ».

La méconnaissance, voire le déni de la vie psychique par les scientifiques, l'acharnement à postuler une causalité exclusivement organique à toute symptomatologie, conduit à des jugements peu sereins. Il est fréquent qu'on accuse un psychanalyste d'être « passé à côté » d'une affection organique. Et l'on se gaussera de ce soi-disant thérapeute, qui ne s'était pas rendu compte qu'il avait affaire à une « vraie » maladie. Mais qu'un chirurgien opère quatre fois un malade indemne de toute atteinte organique sur la foi d'hypothèses étiologiques infondées et sans consistance à la recherche d'une « lésion » introuvable, alors qu'il se révèle aveugle et sourd à la demande inconsciente de son patient, personne ne songera jamais à lui en faire le reproche. N'était-ce pas son devoir d'éliminer une cause possible de désordre pathologique ? Quant à se poser la question de l'impact traumatique de telles opérations, ou celle de leur rôle de fixation pour entretenir une conviction quasi délirante, la formation médicale n'y prépare guère. « La psychiatrie, vous l'apprendrez en trois semaines », disait une sommité de la neurologie des années soixante à ses internes qui se plaignaient d'une expérience insuffisante dans ce domaine.

Toutes ces remarques vont dans le même sens : celui d'une dénégation forcenée de la complexité du fonctionnement psychique et du même coup de l'inconscient, tel que la psychanalyse le conçoit, par les défenseurs de la cause du cerveau, neurobiologistes, psychiatres et neurologues. La neurobiologie peut-elle se substituer à la psychanalyse dans la compréhension de la vie psychique et de ses manifestations ?

Une telle ambition repose sur des postulats simplificateurs : la vie psychique est l'apparence d'une réalité qui est l'activité cérébrale. Or celle-ci n'est vraiment connaissable que par la neurobiologie. Ergo , c'est cette dernière qui permettra de connaître vraiment la vie psychique. Ceci revient à dénier à la vie psychique un fonctionnement et une causalité propres, même si l'on admet la dépendance de celle-ci à l'égard de l'activité cérébrale. La littérature du XIXe siècIe ne manque pas de mettre en scène le personnage du médecin matérialiste convaincu s'opposant au curé du coin. On peut douter que nous soyons sortis de cette représentation simpliste, quand on assiste à l'assaut de certains neurobiologistes contre l'« Esprit », dont l'acte d'accusation englobe et amalgame le psychisme et se résume ainsi : « si vous croyez au psychisme, c'est que vous ne croyez pas à la physiologie du cerveau, c'est que vous croyez à l'Esprit ; c'est en fin de compte que vous êtes religieux, c'est-à-dire fanatique et antiscientifique ». J'exagère ? Pas vraiment. Le psychisme reste un domaine obscur, inquiétant, redoutable. Chacun s'autorise d'une compétence en ce domaine, comme s'il possédait de la science infuse. La maladie mentale existe, mais si les investigations cérébrales ne révèlent rien, être malade psychiquement, ce n'est pas être vraiment malade, c'est avoir une maladie imaginaire. Ou bien dans le cas contraire, c'est une maladie dont le support somatique s'ancre dans la génétique dont on ne tardera pas à connaître les véritables causes. Elle rejoint alors le cortège des maladies du destin. Et les névroses ne sont-elles pas les troubles dont souffrent ceux qui n'ont rien à faire d'autre que d'y penser, ou qui « s'écoutent » ?

Quant à la psychanalyse, on sait bien qu'elle ne sert à rien et qu'elle est une escroquerie. Que les chercheurs quittent leurs laboratoires, qu'ils prennent le chemin des consultations de psychiatrie. ils sentiront alors le poids de la maladie mentale et de sa souffrance. Qu'ils s'interrogent sur le fait que la consommation des tranquillisants dépasse de loin celle de tous les autres produits et atteint des proportions inquiétantes. Thérapeutique psychotrope ou toxicomanie légale ? Il est sans doute plus simple et plus expéditif de prescrire et de se débarrasser de l'ennuyeux angoissé que de chercher à comprendre le fonctionnement psychique d'un individu singulier.

L'exigence de scientificité est parfois confondante de naïveté. Il y a quelques années, au cours d'une réunion sur la recherche en psychiatrie, réunissant d'éminents psychiatres, expérimentalistes, neurophysiologistes, neuropharmacologistes, une autorité en neuropharmacologie exprima ses plaintes et ses griefs à l'égard des psychiatres qui, disait-il, « ne savaient pas faire de la recherche ». Ainsi, comme il était extrêmement important de savoir ce qui advenait aux médicaments au-delà de la barrière méningée, la seule manière de lever l'obstacle était de pratiquer sur les patients traités des ponctions sous-occipitales fréquentes, quotidiennes et même pluri-quotidiennes. Il est clair que ce chercheur n'avait jamais vu un malade mental de sa vie et n'avait pas la moindre idée de ce que pouvait représenter, en soi, pour un malade mental, la piqûre d'une aiguille à la base du crâne pour en prélever le liquide céphaIo-rachidien. C'aurait pourtant été un beau projet de recherche que d'étudier la psychose expérimentale comme maladie induite par le médecin ! Le 12 décembre 1978, au cours d'un entretien avec J.-P. Changeux, d'où devait partir l'idée du projet qui deviendra L'homme neuronal , Jean Bergès racontait qu'il avait entendu Jacques Monod dire que, si l'on suspendait pendant un certain nombre d'années les dépenses entrainées par les malades mentaux et qu'on affectait cet argent à la recherche, eh bien, lui se faisait fort de percer l'énigme biologique de la maladie mentale 3 et de la traiter efficacement. La vision de la psychiatrie développée par J.-P. Changeux ou J. Monod laisse rêveur. En mettant en avant les seuls effets des molécules, elle repose sur un déni fondamental de toute organisation psychique, qui ne serait pas le reflet d'une désorganisation neuronale primitive.

Nous n'avons pas fini de chaudronner : une troisième attitude se fait jour parmi les biologistes. Loin du déni ou de la confusion, voici que des chercheurs des plus sérieux auraient découvert les bases biologiques de l'Inconscient. Et d'autres de prétendre avoir dévoilé « les mécanismes inconscients de la pensée » 4.

Ainsi, la boucle est bouclée, les trois arguments du chaudron ont été défendus. La

publication de l'ouvrage de Connes et Changeux Matière à pensée 5 me permet de reprendre et de développer une discussion antérieure sur L'homme neuronal de J.-P. Changeux. La thèse de J.-P. Changeux 6 est connue depuis 1982 : tout fonctionnement mental s'inscrit dans un déploiement physique de cellules et de molécules et dans leurs remaniements. Le développement actuel de cette thèse tend à la formalisation mathématique de la position précédente. Un mécanicisme sans doute, mais que l'on pourrait donc mimer par la logique des équations. Je pense que la validité de ces thèses peut s'argumenter à partir de la mécanique définie par Changeux pour tenter de rendre compte des processus de création, par exemple de création scientifique.

Avant d'aller plus avant, j'aimerais cependant préciser que je suis persuadé qu'aucune activité psychique n'est indépendante de l'activité cérébrale. Mais je tiens à ajouter que cette opinion n'infère nullement que la causalité psychique soit à trouver dans l'ensemble des structures du cerveau. Les modèles de l'activité psychique conçus par les scientifiques sont tout à fait insuffisants. Changeux fait observer que quelqu'un qui fait une psychanalyse n'acquiert pas pour autant la connaissance de son cerveau. Certes, mais la connaissance du cerveau permet-elle de connaître ce qui se passe au cours d'une pychanalyse ? Il est permis d'en douter. Reste que la connaissance du cerveau permet la connaissance... du cerveau. Je pense, contrairement à J.-P. Changeux, que de tous les modèles existants de l'activité psychique, y compris les modèles de la neurobiologie, ceux de la psychanalyse freudienne me paraissent, en dépit de leurs imperfections, ceux dont l'intérêt est le plus grand pour comprendre les pensées et les productions humaines, sans pour autant les couper du psychisme ordinaire. Les modèles de la psychanalyse freudienne maintiennent les relations du psychique au corporel, tout en reconnaissant l'obscurité de leurs rapports ; ils font la part du développement culturel ; ils soulignent l'intérêt d'une constitution progressive de la psyché qui fasse sa place aux relations avec l'autre, qui est en même temps le semblable ; ils s'efforcent enfin de préciser ce qui détermine l'organisation psychique et qui fonde un mode de causalité spécifique la causalité psychique.

C'est ce dont les hypothèses fondamentales et les conceptions théoriques de la psychanalyse freudienne s'efforcent de rendre compte : les pulsions ancrent le psychique dans le somatique ; le refoulement trouve partiellement son origine dans les effets de la culture ; le développement de la psyché repose en partie sur l'identification aux figures parentales ; les fantasmes primaires organisent l'expérience imaginaire ; l'investissement de ce qui est chargé de sens et important est le moteur de la causalité psychique. Ainsi, la formulation du vieux problème des relations corps-esprit ne reçoit de réponse satisfaisante à mes yeux ni dans la réduction exclusivement au profit du corps, ni dans le postulat de l'existence d'un psychisme d'essence indépendante de celle du corps. La formulation à laquelle je me range repose sur l'hypothèse d'un dualisme de fait qui réclame des justifications que je ne puis donner ici faute de place.

Cela pose la question des limites entre le vivant et le psychique, question qui soulève bien des problèmes. Mais elle plaide en faveur de la reconnaissance de la spécificité humaine qui fonde le psychique. C'est aussi pourquoi la recherche des facteurs pertinents pour fonder cette spécificité du psychisme humain a varié au cours des époques et pourquoi les scientifiques n'ont pas cessé d'adopter une attitude ambiguë à son propos. Qu'on en juge. La notion de spécificité humaine a longtemps été victime d'une perspective intellectualiste : l'homme possédant l'intelligence se situait au sommet de l'échelle des animaux soumis à l'instinct. Or la neurobiologie devait démontrer que l'homme partageait avec l'animal les mêmes constituants organiques et donc, implicitement, les mêmes modalités élémentaires de fonctionnement. La connectivité ou la circulation d'informations dans le « câblage » des neurones a pris le relais en devenant la clé de la compréhension des accomplissements du cerveau humain. Mais cette épistémologie n'a pas beaucoup amélioré la situation même quand elle espère une résonance du biologique au niveau des mathématiques, dont témoigne l'échange entre A. Connes et J.-P. Changeux dans Matière à pensée . C'est que la stratégie théorique des approches dites scientifiques consiste toujours à chercher la spécificité du côté des activités que l'homme seul peut accomplir, et non dans la mise en perspective de ce qui diffère entre l'animal et l'homme lorsque l'on considère des activités homologues.

Pour prendre un exemple, on devrait plutôt comparer l'instinct sexuel animal à la sexualité humaine pour que la comparaison ait quelque sens. En fait, ce qui paraît au détour de ces raisonnements était posé à son origine : donner une image de la spécificité humaine comme délivrée de sa sujétion au corps sexué. De nos jours, le fondement de la spécificité humaine est recherché du côté du langage. L'homme en dispose ; les animaux n'en disposent pas. Mais c'est alors parer au plus pressé que de donner au mot langage, lorsque cela arrange et pour éventuellement annuler son sens, une signification qui relève d'autre chose que de la linguistique. C'est ce qui s'est produit lors du colloque sur la spécificité de l'homme qui s'est tenu à Royaumont en 1974 7. M. Piatelli-Palmarini faisait état de seize traits distinctifs entre la communication des primates et le langage humain. Or nombre d'entre eux sont probablement rattachables à des propriétés extralinguistiques. Ici, la faute de raisonnement en la matière est de considérer que puisque les approches biologiques sont scientifiques, c'est que les phénomènes mentaux s'y réduisent, alors que l'analogie ne repose que sur la mise en condition scientifique d'une fraction ténue de l'ensemble des phénomènes psychiques envisagés, que rien n'autorise à valoriser de la sorte pour la compréhension de l'objet étudié.

La vague la plus récente de l'offensive antipsychanalytique des biologistes naquit durant les années 1960. Deux ouvrages de biologistes devaient s'imposer : Le hasard et la nécessité de Jacques Monod et La logique du vivant de François Jacob. Alors que le second faisait preuve de prudence, le premier adoptait une attitude résolument incisive. Quinze ans après, le ton se durcit avec l'esprit de conquête de J. -P. Changeux, élève de J. Monod, prolongateur de sa pensée et partisan déclaré d'un mécanicisme tranquille. C'est l'essence de l'Homme neuronal . Avec Jacques Ruffié, Michel Jouvet, Henri Korn, etc., Changeux s'attaque frontalement à la psychanalyse pour traquer les erreurs de Freud ou faire valoir l'optique de leur science sur la dimension psychique. Le problème est que leurs explications se situent dans une perspective qui n'apporte pas le moindre éclairage au niveau où se placent les analystes, c'est-à-dire celui de la réalité psychique. C'est que ce niveau n'a pour eux aucun sens. Leurs outils ne visant pas la vie psychique au sens des psychanalystes, ils en nient donc tout simplement l'existence, alors que leurs outils ne réussissent qu'à en donner une image dérisoire. Il est dommage que les prises de position polémiques empêchent une vraie discussion de s'établir. Exception parmi les scientifiques mais est-il une exception ou l'un des rares qui s'expriment ?, un biologiste est conscient des enjeux spécifiques des différentes méthodes employées pour décrire la réalité d'un individu 8.

Nous avons, quant à nous, fait remarquer qu'à tous les niveaux, autant la science a la possibilité d'examiner les mécanismes du fonctionnement cérébral, autant, quand la science se mêle d'aborder le psychique, elle ne manque pas de se commettre dans des raisonnements discutables 9. C'est que la science se refuse à analyser les conditions exactes de sa production effective, c'est-à-dire les conditions même d'apparition de l'« idée » créatrice, dans sa démarche comme ailleurs. Elle ne prend pas en compte le fait que l'idée créatrice dérive de processus associatifs parfaitement en dehors de la logique rationnelle et sur lesquels précisément la science ne sait rien dire, alors qu'elle a beaucoup à dire sur la production scientifique elle-même. C'est dire à quel point une position extrême de la biologie devient insoutenable. Jusqu'à présent la biologie se donnait pour but la connaissance d'un champ particulier, le vivant. Avec la neurobiologie moléculaire, elle se donne donc désormais pour but d'expliquer la Science, je veux dire les conditions d'apparition de l'idée scientifique. C'est ce qui ressort du dialogue dans lequel Changeux veut convaincre son collègue mathématicien de la dépendance des mathématiques à l'organisation cérébrale ! La question est alors de savoir si l'on peut soutenir une telle visée tout en restant fidèle aux critères qui fondent la démarche scientifique.

C'est le problème de la fin et des moyens qui est ici posé. C'est au niveau des concepts que la discussion doit s'engager et il me semble que les arguments des biologistes risquent de se retourner contre eux. Soucieux de combattre toute théorie qui survalorisait à des fins « spiritualistes » la différence entre l'animal et l'homme, ils n'ont cessé de souligner l'absence, en biologie, de propriétés exclusivement spécifiques de l'humain. S'il est bien clair que le récepteur à la dopamine ou à l'acétylcholine est le même chez le rat et l'homme, ces constatations qui servaient d'abord le combat militant des neurobiologistes vont leur poser des problèmes inattendus lorsque l'on s'attaque à la spécificité humaine. Car s'il est vrai que la marge des différences est si étroite, la connectivité à elle seule suffit-elle à rendre compte de cette spécificité humaine qu'il leur faut bien reconnaître ? Peut-être faut-il invoquer qu'une petite différence devienne décisive par ses conséquences qualitatives ? Et c'est là, dans ces conséquences qualitatives, qu'apparaît l'obligation de réintroduire ce dont on voulait à tout prix circonvenir l'influence : le psychisme, sa relation au langage et les rapport de ce dernier avec la pensée. Pour éviter que la psychanalyse devienne digne de considération, une contre-stratégie lui préfère une conception autre du psychisme. C'est ce que l'on tente aujourd'hui avec l'approche « cognitiviste » de la psychologie dont il n'est pas surprenant que la dimension également mécaniciste dérive dans l'intelligence artificielle. Un effet de plus de la volonté de dissocier l'affectif et le cognitif.

Le lien de la neurobiologie à la recherche de la vérité passe par la méthode expérimentale. Apparemment le sujet pensant le scientifique se sert de l'outil approprié qu'est la « machine » pour découvrir, tester, démontrer une hypothèse. J'entends par machine l'ensemble allant de l'hypothèse à l'instrumental. Supposé commander cette machine et la dominer, puisque ses prémisses seraient purement rationnelles, le scientifique en fait, ne peut penser que ce que sa machine est capable de faire, c'est-à-dire de tester, de vérifier. Le tour de passe-passe consiste donc à faire croire que c'est dans la liberté de pensée qu'a été conçue l'idée à découvrir, la machine ne faisant que le démontrer. Les contraintes de la production scientifique obligent à un rapprochement de plus en plus grand entre la façon dont fonctionne la machine et celle dont doit penser le scientifique pour produire un savoir pourtant considéré implicitement comme indépendant de celle-ci. Il est facile de voir le cercle vicieux que constituera l'utilisation de machines supposées mimer le fonctionnement mental 10. C'est l'une des orientations de la neurophysiologie actuelle avec son recours aux modèles formalisés et aux machines logiques : l'enjeu irréfléchi est ici la réflexion sur la genèse de la pensée scientifique, sur la genèse de toute pensée qui ne serait pas automatique...

Cela nous introduit à l'avancée neurobiologique la plus ambitieuse et la plus récente : chercher un fondement mathématique aux modèles de la neurophysiologie. C'est l'objet de la discussion entre J.-P. Changeux, neurobiologiste, et A. Connes, mathématicien. Un fondement mathématique à la neurobiologie est important pour Changeux, non seulement à cause des prétentions à la rigueur de la neurobiologie, mais surtout à cause de l'idée selon laquelle la pensée mathématique pourrait offrir un modèle de fonctionnement cérébral « pur ». Fières de réussir dans la construction d'une pensée pouvant fonctionner indépendamment de tout contenu, les mathématiques sont néanmoins prises dans une contradiction. Celle d'être le critère quasi absolu de la scientificité lorsqu'elles réussissent à avancer la compréhension de phénomènes existant dans la réalité, alors même qu'une partie d'entre elles tient sa valeur d'un critère exactement opposé : celui de ne se compromettre avec aucune donnée appartenant à la réalité du monde physique. Aussi les mathématiques sont-elles, selon les biologistes, invoquées comme garantes de la vérité scientifique Changeux et tantôt récusées comme science confinées à n'être qu'une logique A. Lwoff. Dans son dialogue avec le mathématicien A. Connes, J. -P. Changeux est persuadé que c'est Connes qui possède les bons outils intellectuels qui lui serviraient, lui, Changeux, à avancer dans son propre champ. Mais il veut convaincre son interlocuteur que c'est lui, Changeux, qui tient, en dernière instance, la clé de ce que fait Connes, parce qu'à défaut de posséder les moyens de son interlocuteur, son objet est le substrat véritable le cerveau qui produit ces moyens : « L'équation mathématique décrit une fonction et permet de cerner un comportement, mais pas d'expliquer le phénomène. En biologie, l'explication va de pair avec l'identification de la structure qui, sous-jacente à la fonction, la détermine » 11. L'obsession de pureté de Changeux les mathématiques comme « synthèse épurée de tous les langages, une sorte de langage universel » 12est en fait la voie de la facilité. Car le cerveau, à ce que j'en sais, ne fonctionne pas de façon si « purement » homogène. Bizarrement, c'est Connes qui devient objectiviste en postulant la réalité non humaine des mathématiques et Changeux « subjectiviste » puisqu'il lie le fonctionnement mathématique à la structure du cerveau humain 13. C'est en tout état de cause reposer le vieux problème du rapport entre réalité et perception, qui n'est pas davantage réglé par cette discussion.

On ne pourra pas éviter de se demander comment le même cerveau capable de raisonner mathématiquement peut aussi entretenir les idées qui poussèrent Newton vers l'alchimie, ou Cantor à rechercher l'appui du Vatican. La « purification » ici est pour le moins imparfaite ! La science explique ce qui doit être tenu pour vrai ; elle devrait aussi, me semble-t-il, découvrir la raison d'être du faux.

Si Changeux se défend d'assimiler le réel biologique à des objets mathématiques, il ne paraît pas soucieux de tirer les conséquences de son attitude : « On sélectionne le modèle qui s'adapte le mieux. » On ne saurait mieux dire. Encore serais-je tenté d'ajouter : « Pour comprendre ce que l'on peut comprendre et discréditer ce qu'on ne comprend pas comme n'étant pas susceptible d'être "sélectionné" par un modèle mathématique » ! Ainsi Changeux reprochera-t-il aux physiciens de ne pas avoir tenu compte, en dehors des rôles de l'instrument de mesure et du regard de l'observateur, de leur « propre fonctionnement cérébral ». De quel côté est « l'erreur épistémologique grave » 14 dénoncée par le biologiste ? Du côté des physiciens négligents ou de celui du neurobiologiste qui assimile purement et simplement « fonctionnement cérébral » tel qu'il est connu par la science aujourd'hui et « fonctionnement mental » en termes d'analyse, de jugement, d'autoréférence ? Et ce sera Connes qui introduira la part de l'affectivité dans la recherche, cette référence bannie du discours neurobiologique 15. Curieusement, le psychanalyste se sentirait plus proche ici du mathématicien que du neurobiologiste. Il y a d'ailleurs une pensée mathématique qui peut rencontrer le discours de la psychanalyse, sans le chercher ou l'éviter. Ainsi Esquisse d'une sémiophysique du mathématicien René Thom présente des concepts mathématiques qui suggèrent des fonctionnements pas tellement éloignés de certains concepts psychanalytiques 16.

Ceci dit, on peut se demander si la position de J.-P. Changeux est admise dans tout le monde des biologistes et des neurobiologistes. D'une part, un débat actif existe dans les neurosciences et, d'autre part, pour considérer le seul registre psychanalytique, il existe des biologistes qui peuvent écrire le mot sens sans le flanquer de guillemets. Ainsi Henri Atlan indique comment un changement de niveau dans des organisations hiérarchiques « consiste en une transformation de ce qui est distinction et séparation à un niveau élémentaire en unification et réunion à un niveau plus élevé »17. La psychanalyse se trouve au coeur du questionnement qu'il énonce : comment parler de ce pour quoi nous n'avons pas de langage adéquat, parce que nos méthodes d'observation qui conditionnent notre langage ne sont pas encore adéquates ? La difficulté bien repérée ici est due à l'impossibilité d'observer tous les niveaux avec la même précision.

Le paradoxe, c'est qu'en fin de compte aussi bien Changeux, qu'Atlan et Thom, concluent que la solution du problème qui nous retient est de savoir ce qui fait que la parole a un sens. Et c'est aussi notre avis. C'est le langage qui fonde la validité de l'expérience psychanalytique comme autre manière de faire fonctionner la parole afin d'accéder à la réalité de l'inconscient. Sans pour autant conclure, comme l'a fait hâtivement Lacan, que l'inconscient est structuré comme un langage. Pour Atlan, comme pour nous, l'émergence des significations relève de l'examen des rapports du langage à la pensée rapports cerveau/langage et langage/pensée - ce qui exige sans doute une ré-appréhension de ce qu'est la pensée, cette fois-ci à la lumière des hypothèses psychanalytiques.

Il semble pourtant que même les plus radicaux des biologistes admettent l'existence d'une activité psychique, à condition de l'envisager au niveau collectif. Comme si la constitution des groupes humains avait eu le pouvoir de générer le psychisme d'une manière analogue au fruit de la collaboration des « assemblées » de neurones. Groupes de neurones en « assemblée » et hommes réunis en « société », le psychique pourrait naître de ce « collectivisme », semble-t-il. Car L'homme neuronal de J.-P. Changeux se terminait déjà par des réflexions sur le phénomène collectif de la culture, alors que parlant de l'individu, sa conception de l'image mentale était des plus simplistes 18. Prenons un exemple simple. Reportons-nous au numéro spécial de La Recherche sur la sexualité paru en septembre 1989. Comparons la pensée qui sous-tend tous les articles d'inspiration biologique et médicale sur les problèmes relatifs à la sexualité avec celle qui inspire l'exposition de Maurice Godelier, socio-anthropologue, spécialiste des Baruyas de Nouvelle-Guinée. « Sexualité, parenté et pouvoir », titre de sa contribution, permet de mesurer non pas tant l'écart entre les biologistes et le socio-anthropologue que celui de la carence des concepts qui permettraient de passer des uns à l'autre et que, en revanche, la psychanalyse pourrait posséder. Et pour cause dira-t-on.

Ayant fait la critique des présupposés intellectuels de la science biologique, les psychanalystes se situeraient-ils, dans le pur ciel des idées, à partir du choix de paramètres moins fondés que ceux des neurosciences ? Je souhaite que l'on se souvienne que les psychanalystes, tout comme les psychiatres, ont une activité thérapeutique. Que nous dit la neurobiologie de ces pièges à souffrance humaine ? Mettra-t-on en doute les positions de ces thaumaturges menacés par les progrès fulgurants de la thérapeutique psychiatrique ? Tournons-nous vers les théoriciens de la psychiatrie contemporaine, G. Lanteri-Laura, M. Audisio, R. Angelergues 16 et E. Zarifian. Nous ne nous attacherons qu'à ce dernier, car en tant que représentant de la psychiatrie pharmacologique, et fort peu suspect de sympathies psychanalytiques, sa critique des représentants des neurosciences est à prendre en considération. Il accuse ceux-ci de défendre des positions abusives en invoquant une causalité purement cérébrale aux maladies mentales, et de méconnaître dans cette optique le rôle du temps et de l'environnement. Il souligne leur confusion entre pensée et psychisme. Il dénonce leurs revendications méthodologiques. « L'application de la quantification, de la statistique et des méthodes de la biologie n'a, à ce jour, strictement rien apporté comme découverte importante à la psychiatrie » 19. La progression des connaissances s'est faite en sens inverse de ce qui était souhaité, vers le plus petit le neurone et ses molécules là où l'on espérait des lumières sur le plus grand l'individu et ses rapports aux autres.Plus on « descend » vers la cellule, moins les phénomènes relatifs au comportement deviennent intelligibles. Si tant est que le comportement soit la bonne référence...

Quant au prestige tiré de la connectivité, Zarifian montre qu'il y manque l'essentiel pour une conception neurobiologique à prétention explicative de l'humain : la connexion entre les parties superficielles et profondes du cerveau. « L'idéologie neurobiologique est propagée par des psychiatres qui ne connaissent rien, à la neurobiologie et par des neurobiologistes qui ne connaissent rien à la psychiatrie » 20. La dernière-née des stratégies théoriques pour circonvenir la psychanalyse au moyen d'arguments tirés de la biologie n'est plus de réfuter l'existence de l'inconscient à la manière d'un J. Monod, c'est de ramener cette existence à ce que la neurobiologie prétend éclairer. Autant dire qu'il faudra préalablement contraindre le psychisme à entrer dans la grille des circuits qui sont à la portée des conceptions neurobiologiques. Ainsi aux dernières nouvelles, par une interprétation sommaire de l'action pharmacothérapique, le substrat de l'inconscient est-il attribué aux neurones dopaminergiques. Lors du rêve, « seules parmi les cellules monoaminergiques, les neurones dopaminergiques n'ont pas changé d'activité, l'équilibre métabolique aires sensorielles/aires limbiques est nettement en faveur des aires limbiques ; le système nerveux central fonctionne sur le mode inconscient » 21.

Cette « découverte » est connue de ceux qui s'intéressent à ces questions depuis les années cinquante, où les discussions sur le « dreamy-state » de l'épilepsie temporale, suite aux travaux de Penfield, avaient déjà permis de soupçonner le rôle du système limbique dans ce type d'altération de la conscience. Seul s'y trouve ajouté le rôle des neurones dopaminergiques. Cet exemple parait fondé sur une conception biochimique des maladies mentales encore inexistante à ce jour. Aussi veut-on accréditer l'idée que l'équilibre conscient/inconscient dépendrait des rapports des systèmes mono- aminergiques et doparainergiques. C'est bien la seule démarche possible : pour éviter d'entrer dans la complexité de l'objet immaitrisable par les procédures expérimentales, il s'agira de ramener l'investigation à la façon dont la machine pourra le traiter en laissant croire qu'on n'a pas ainsi modifié l'objet. En un temps ultérieur, la complexité initiale aura disparu au profit du traitement de sa forme simplifiée. Ainsi la conclusion de l'article cité plus haut dit-elle : « Les connaissances neurobiologiques actuelles peuvent donc rendre compte, sans pour autant le démontrer, de l'existence d'un mode de fonctionnement particulier différent du conscient et assimilable à l'inconscient décrit en psychanalyse. » 22. Nous savons bien que le lecteur de cette revue n'est pas familier avec le langage et les concepts psychanalytiques. Nous pourrions lui demander, afin qu'il se fasse une idée de ce qu'est le psychique, de s'interroger sur les circonstances de sa lecture d'un tel article, et sur l'analyse de ses états d'âme à l'orée de celle-ci. Une idée plus complète, encore que très incomplète, de cette notion exigerait qu'il s'interroge sur son état d'esprit au moment d'arriver à la fin de sa lecture, pour envisager le déroulement rétrospectif de ce qui s'est passé en lui. En ce qui me concerne, je ne pensais pas pouvoir être en mesure de fournir une explication de ce qu'est le psychisme. Ce serait déjà beaucoup si j'étais parvenu à donner une idée de ce qu'il n'est pas...

Par André Green

 

 DOCUMENT       larecherche.fr       LIEN

NANOBIOLOGIE

24/03/2016

NANOBIOLOGIE : LA MICROMANIPULATION DES MOLÉCULES


Si l'on regarde une cellule vivante sous le microscope optique, il y a à l'évidence de nombreux phénomènes dynamiques actifs comme : la division et les mouvements cellulaires, le transport d'objets dans la cellule ou encore la formation et disparition de structures intracellulaires comme les organelles. Des macromolécules complexes, qui jouent le rôle de petites machines à l'échelle moléculaire, sont à l'origine de ces phénomènes actifs. Ces molécules agissent en grand nombre dans une cellule vivante, invisible dans le microscope optique du fait de leur petite taille de l'ordre de quelques nanomètres. Les prototypes de ces molécules sont les moteurs moléculaires qui consomment un carburant chimique qu'ils transforment en travail mécanique. Dans les dix dernières années, des techniques de micromanipulation ont permis d'étudier les propriétés mécaniques de ces molécules à l'échelle d'une molécule unique. Des techniques de fluorescence et de pince optique permettent de mesurer des forces de l'ordre de piconewtons et des déplacements de quelques nanomètres. Il existe toute une diversité de moteurs moléculaires : des moteurs linéaires qui se déplacent le long de filaments rigides ; des moteurs rotatifs, qui tournent dans une membrane cellulaire ; des systèmes de moteurs qui génèrent des mouvements oscillatoires, permettant la nage de certains organismes unicellulaires. Enfin, il y a des molécules qui se déplacent le long de la double hélice de l'ADN, le porteur du code génétique. Ces molécules ouvrent l'hélice, dupliquent le code ou créent une copie sur un brin d'ARN. L'étude des propriétés physiques de molécules individuelles par des techniques de micromanipulation est importante pour mieux comprendre leur fonctionnement dans des structures biologiques complexes. Finalement, la fusion de structures artificielles nanotechnologiques avec des molécules individuelles biologiques permet de créer artificiellement des systèmes moléculaires actifs qui représentent un premier pas vers une technologie de moteurs moléculaires.

 

 VIDEO       canal u        LIEN

PHOTOSYNTHÈSE

16/03/2016

PHOTOSYNTHÈSE : Le noyau donne le rythme aux chloroplastes

Le fonctionnement de l'horloge biologique des plantes vient d'être révélé par une équipe anglo-japonaise. De quelle horloge s'agit-il ?

M.A. Les plantes vivent selon un cycle biologique d'environ 24 heures, commandé par une horloge centrale située dans le noyau de leurs cellules. Près de 10 % des gènes contenus dans le noyau sont ainsi exprimés de manière rythmique en fonction de la lumière. Par ailleurs, ce rythme jour-nuit régit aussi l'activité des chloroplastes, petites structures responsables de la photosynthèse, grâce à laquelle la cellule élabore sa matière organique. Or les chloroplastes renferment eux-mêmes une petite quantité d'ADN. Possèdent-ils du coup leur propre horloge circadienne, indépendante de l'horloge centrale ? Mitsumasa Hanaoka, de l'université japonaise de Chiba, et Antony Dodd, de l'université britannique de Bristol, prouvent aujourd'hui que non. Ils ont montré qu'une protéine baptisée Sygma 5, exprimée de façon rythmique par un gène situé dans le noyau, migre vers le chloroplaste [1]. Elle y contrôle l'expression périodique d'un gène impliqué dans la photosynthèse.

Comment ont-ils mis en évidence ce mécanisme ?

M.A. En étudiant deux lignées mutantes de l'arabette des dames, la plante « modèle » favorite des biologistes. Chez la forme normale de cette plante verte, la protéine Sigma 5 est produite majoritairement à l'aube. En revanche, la première lignée présente un cycle biologique raccourci de trois heures par rapport à la normale : la production maximale de Sigma 5 a lieu précocement. L'autre arabette mutante possède au contraire un cycle allongé de trois heures. La production maximale de Sigma 5 est alors plus tardive, décalée de trois heures. Or, dans chaque cas, les chercheurs ont constaté que l'expression du gène régulé dans le chloroplaste par Sigma 5 changeait de rythme, se décalant de façon identique à celui de la protéine. À travers cet exemple, on voit bien que l'horloge biologique du chloroplaste est placée sous le contrôle de celle du noyau.

Ce constat est-il surprenant ?

MA. Certains organismes comme les algues possèdent plusieurs horloges biologiques qui fonctionnent séparément. Cela aurait pu être le cas des plantes vertes. D'autant que la protéine Sigma 5, tout comme les gènes du chloroplaste, représente les vestiges d'un même ancêtre primitif qui était une algue unicellulaire. En intégrant, au cours de l'évolution, le gène responsable de la synthèse de Sigma 5 à l'intérieur de son noyau, la plante a trouvé une façon élégante de synchroniser la photosynthèse avec ses autres fonctions biologiques.

Par Caroline Depecker

 

DOCUMENT    larecherche.fr     LIEN

UN CERVEAU ARTIFICIEL ...

10/03/2016

UN   CERVEAU   ARTIFICIEL ...

 

Dans les films de science-fiction, ils sont présents depuis longtemps, ces êtres artificiels doués d’une conscience semblable à celle des humains. Mais qu’en est-il dans la réalité ?
Imaginons que nous fabriquions un robot, appelons-le Robert, à partir d'un humain, disons Henri, volontaire pour devenir immortel. Pour ce faire, remplaçons petit à petit chaque partie du corps et du cerveau d'Henri par des prothèses électroniques et mécaniques diverses, en respectant scrupuleusement l'implémentation de chacun des états et transitions de ces éléments.


Image : © Dave Bredeson / Dreamstime
 

Dans la mesure où nous savons, par exemple, reproduire avec une très belle précision le fonctionnement d'un neurone, retirer un neurone biologique à Henri en le remplaçant par un neurone artificiel biologiquement plausible n'est pas un défi insurmontable. Ce sera toujours Henri, avec juste une microscopique prothèse neuronale à laquelle il ne fera pas plus attention que si nous lui avions posé une prothèse osseuse ou une greffe organique.

Voilà qui est encourageant ! Alors passons au deuxième neurone, puis à la dizaine, et ensuite... à la centaine, au millier, aux millions, aux milliards, et voilà Henri avec le tissu biologique de son cerveau remplacé par de l'électronique à peine futuriste. Si nous remplaçons en même temps le reste de son anatomie, Henri sera devenu un complet humanoïde. Mais, mmm... pouvons-nous encore dire « Henri » du reste ? Ne serait-ce pas plutôt quelque « Robert » ? Mais alors où, quand, comment s'est effectué le basculement ? Qui est devant nous : Henri en pleine conscience d'être resté lui-même ? Ou bien un zombie sans conscience de soi, qui n'est plus qu'une « intelligence mécanique » au sens le plus rudimentaire du terme ? Ou encore un « autre » être, un Robert qui a émergé de cette transformation artificielle ?

Ce qui est peut-être le plus étonnant ici, c'est que cette expérience de pensée n'est pas une facétie, mais a été avancée de manière tout à fait sérieuse par David Chalmers lorsqu'il a cherché à fonder l'étude de la cognition (voir sur Interstices le document Calculer / penser). La même expérience de pensée a été réfutée de manière tout autant sérieuse par un des plus grands philosophes de l'esprit, John Searle (voir Le cerveau, un ordinateur ? ).

Dans les deux cas, nous sommes bien au-delà des mythes de Frankenstein, du Golem ou de Pinocchio, de ces archétypes qui nous donnent facilement envie de croire à l'émergence d'une intentionnalité dès lors qu'un système trop complexe ou mystérieux se met à fonctionner en dehors de notre contrôle immédiat. Car cette controverse est une vraie problématique, par exemple pour les scientifiques qui travaillent en neurosciences computationnelles, cette nouvelle science du cerveau née des sciences informatiques. On constate en passant que l'informatique nous conduit à penser autrement des questions fondamentales à propos de notre esprit (voir La pensée informatique) .

Alors, ce robot humanoïde doté d'un cerveau artificiel à notre image... fait-il partie de notre futur ?

Il a contre lui l'argument de la complexité. Chez l’homme, on compte environ 100 milliards de neurones organisés en un réseau complexe qui connecte chaque cellule à environ mille à dix-mille autres, tandis qu'à chaque connexion correspondent des molécules définies par des centaines d’éléments. Pour se donner un ordre d’idée, c'est donc à un potentiel de plus de 1011 × 104 × 103 = 1018 éléments d’information que correspond l'information de notre cerveau. Un cerveau est donc un objet incommensurablement complexe. Le 21e siècle sera probablement le siècle de l'exploration et de la compréhension de cet incommensurablement complexe, comme le 20e siècle le fut pour l'incommensurablement petit de la matière et l'incommensurablement grand de l'espace. Pour l'heure, cet objet incommensurablement complexe, bien mieux structuré que tous les ordinateurs du monde, est donc bien au-delà de la portée de nos technologies les plus sophistiquées. Pour faire un nouveau cerveau intelligent, nous autres humaines et humains n'avons de solution à notre portée que de faire un bébé.

Il a contre lui aussi l'argument de l'évolution des espèces. Notre cerveau n'a pas vraiment entre 0 et 100 ans, car il ne s'est pas simplement développé depuis notre naissance, mais depuis des millions d'années, à travers l'évolution des espèces animales. Les capacités cognitives des systèmes nerveux ont émergé de myriades d'interactions sensori-motrices avec l'environnement, pour le pire en ce qui concerne les espèces disparues, pour le meilleur en ce qui concerne les branches survivantes dont nous sommes issus. Et donc, quels que soient les phénomènes qui ont conduit à l'apparition de notre cerveau, le moins qu'on puisse dire est que cela a pris un temps et un nombre d'essais-erreurs vertigineux.

Mais ces deux arguments ne sont pas les plus importants. Ils dénotent surtout une incompréhension des phénomènes associés à la complexité et de la manière de produire des systèmes complexes.

Les systèmes complexes sont fascinants car ils sont dotés de propriétés de stabilité, de robustesse, d'auto-référence, voire de reproduction, que nous aimerions maîtriser. Il est cependant aussi connu que ces propriétés ne sont pas présentes dans chacune des parties du système, mais dans leur assemblage, produit émergent de la dynamique de l'interaction de ces parties. Ceci est d'ailleurs une autre définition des systèmes complexes.

L'émergence est donc le mot-clé à mettre en avant ici. Ces propriétés que l'on cherche à reproduire, il ne faut pas les construire, il faut créer les conditions de leur émergence. En ce qui concerne le cerveau, ses propriétés émergentes vont des plus concrètes, par exemple, le groupement perceptif (c'est-à-dire l'assemblage de fragments perceptifs élémentaires permettant la sensation de perception d'un objet unique), à la plus abstraite, l'intelligence. Il ne s'agit là en aucune manière de s'attaquer directement à la réalisation de ces propriétés, mais bien à la réalisation du support qui pourrait leur donner naissance.

Une autre caractéristique de cette émergence est le nombre important d'agents élémentaires nécessaires à sa réalisation, qu'il s'agisse de neurones pour les fonctions cérébrales ou d'individus pour des fonctions sociales collectives. Les nombres à dix chiffres et plus peuvent bien sûr donner le vertige, mais, là aussi, réaliser un système de grande taille pour profiter de ses propriétés émergentes n'implique pas de reproduire un plan exact point à point, mais de développer de manière générique un motif avec des règles de fonctionnement locales. Créer une organisation sociale ne se fait pas en recopiant une société existante point à point, mais en définissant des règles de communication entre les individus. Créer un modèle de structure cérébrale ne doit donc pas se concevoir comme l'interconnexion de millions de neurones artificiels, mais comme la définition des règles de communication locales entre neurones que l'on déploie ensuite à grande échelle. Il ne faut pas oublier que, avant ses premières expériences sensorielles, l'architecture du cerveau d'un nouveau-né est codée dans ses gènes : il n'y a clairement pas assez de place pour la quantité d'information nécessaire au plan de câblage précis de millions de neurones, mais plutôt des indications génériques permettant de guider des faisceaux d'axones vers leurs cibles de connexion. Notons également que cette mise en perpective permet aussi de relativiser l'expérience de pensée de David Chalmers : dans ce contexte, remplacer un neurone en le reconnectant précisément n'a pas vraiment de sens...

Bien que ce point soit moins important ici, nous pouvons également relativiser l'autre crainte liée à la difficulté de reproduire la complexité, par insuffisance de la technologie actuelle. Maintenant que ce problème a été ramené à la reproduction extensive de modules de calcul locaux, nous sommes déjà beaucoup plus proches des techniques d'intégration de l'électronique. Quant à la quantité de processeurs nécessaire à un hypothétique cerveau artificiel, les courbes d'évolution annuelle des plus gros calculateurs du monde montrent que nous sommes sur la voie de la puissance de calcul cérébrale.

Mais, au-delà de ces aspects technologiques, la présente discussion permet surtout de nous focaliser sur les vrais problèmes, qui ne son