École de Musique Partouche - Produits, offres, nouvelles

Actualités

COMPRENDRE LA GUITARE ACOUSTIQUE

18/03/2016

Comprendre la guitare acoustique
PAR
Antoine Chaigne 
Grégoire Derveaux 
Patrick Joly 
NIVEAU DE LECTURE
Intermédiaire   
PUBLIÉ LE
15/11/2006
 
Pour faire évoluer la guitare, des simulations numériques dévoilent le champ sonore à l'intérieur et autour de l’instrument. Comment fabriquer une bonne guitare ?

Les éléments d'une guitare classique
Source : Pierre-Étienne Nataf / Wikipédia
Une corde vibre selon des harmonies naturelles, mais le son qu’elle émet est à peine audible. Pourquoi ? Car le diamètre de la corde est trop petit pour rayonner dans l’air. Le rôle de la guitare est d’amplifier ce son à l’aide d’un mécanisme acoustique. Les cordes de la guitare sont fixées d’un côté au manche et de l’autre au chevalet, lui-même collé sur la table d’harmonie, fine plaque de bois. Les vibrations de la corde sont transmises à la table d’harmonie, laquelle rayonne efficacement dans l’air grâce à sa large surface. Mais le son émis de part et d’autre de la table s’annule pour les grandes longueurs d’onde, à moins qu’on ne l’enferme dans une cavité. Pour renforcer la puissance dans les graves, on perce dans la table d’harmonie un trou, appelé rose (ou rosace), ce qui crée de nombreuses résonances à l’intérieur de la caisse, dont la plus grave est la fréquence de résonance de Helmholtz. C’est cette fréquence que l’on entend quand on souffle dans une bouteille vide. Ce même principe est utilisé pour construire les enceintes bass reflex. Au XVIe siècle, la vihuela espagnole, ancêtre de la guitare classique, possédait déjà ces caractéristiques.

Lorsqu’on pince une corde de guitare, l’essentiel de l’énergie produite se dissipe au sein de la corde, et seule une faible partie est transmise jusqu’à nos oreilles. Pour obtenir une plus grande puissance sonore, il suffit d'agrandir le corps de la guitare et d'affiner la table d’harmonie, ce qui favorise sa mobilité. La masse des cordes augmente alors, induisant ainsi l'augmentation de leur tension, afin de conserver la même hauteur de note. Ces transformations fragilisant l’instrument, un système de barrage réalisé à l’aide de baguettes de bois dur collées sous la table de l’instrument a permis de garantir sa solidité. C'est au luthier espagnol Antonio de Torres (1817-1892) que l'on doit cette contribution majeure.

Les luthiers cherchent en permanence à faire évoluer la guitare. Pour bien faire, une bonne connaissance du fonctionnement intime de l’instrument est nécessaire. Celle-ci repose principalement sur leur expérience personnelle et la transmission des savoir-faire techniques. La recherche scientifique contribue quant à elle à une meilleure compréhension de la physique de l’instrument.

Un modèle physique de guitare
Les mouvements de la table d'harmonie d'une guitare sont décomposés sur ses modes élémentaires de vibration. Il en existe une infinité. Ci-dessus les cinq premiers modes calculés par notre modèle. La couleur verte indique le niveau de la surface médiane, le rouge une surélévation (bosse) et le bleu un abaissement (creux).


Évolution du champ sonore dans l'air environnant la guitare juste après que le doigt a lâché la corde. On observe ici l'écart à la pression ambiante dans trois des plans de coupe passant par le centre de la guitare. La couleur bleue désigne une dépression de l'ordre de - 6 pascals, tandis que la rouge désigne une surpression de + 6 pascals. En tirant sur le chevalet, la corde crée une dépression locale à l'intérieur de la caisse et une surpression au-dessus de la table. Ces fluctuations de pression rayonnent vers l'extérieur et se déplacent à l'intérieur de la caisse en se réfléchissant sur les éclisses et le fond en faisant vibrer la table et en s'échappant partiellement par la rose.
Images : © INRIA / Projet ONDES et Arghyro Paouri
Nous avons élaboré un modèle pour décrire les phénomènes vibro-acoustiques mis en jeu lorsqu’on pince une corde de guitare. La corde est modélisée par une équation de corde vibrante, excitée par le pincer. Le mouvement de la table d’harmonie est décrit par l’équation de plaque mince dite de Kirchhoff-Love pour un matériau orthotrope - c’est-à-dire qui possède des veines comme le bois - et hétérogène (pour prendre en compte le barrage). Les pertes au sein de la corde et de la table sont prises en compte à l’aide de termes d’amortissement, de sorte que les hautes fréquences s’atténuent plus vite que les basses fréquences. Ce phénomène caractérise entre autres le timbre de l’instrument. Quant au champ sonore à l’intérieur et à l’extérieur de la cavité, il est décrit par les équations classiques de propagation du son en trois dimensions. Il reste à écrire de quelle manière la caisse interagit avec la corde et l’air. On suppose que la corde est en contact permanent avec la table au chevalet et qu’elle exerce sur cette dernière une force proportionnelle à sa tension. En outre, la table subit les efforts de pression de l’air environnant et transmet sa propre vitesse aux particules d’air immédiatement voisines. Le reste du corps de la guitare (fond, bord, manche) est supposé rigide, l’air étant immobile à la surface.

La résolution numérique
Déterminer la solution analytique de ce jeu complexe d’équations à l’aide d’un crayon et d’une feuille de papier, nous ne pouvons l'envisager ! Il nous faut mettre en œuvre une méthode numérique pour en calculer une approximation. Les équations décrivent les vibrations à chaque instant et en chaque point de l’instrument, donc en une infinité de points : le problème est continu. Un ordinateur ne pouvant traiter qu’un nombre fini de données, nous cherchons une approximation de la solution basée sur un nombre fini de valeurs : c’est la discrétisation du système continu. Pour approcher l’équation de corde, nous la découpons en un nombre fini de segments. La solution est alors calculée en chaque segment à des instants successifs séparés par une durée très courte appelée pas de temps (ici 20 microsecondes). De même, l’air est coupé en petits cubes. Comme pour la timbale (voir aussi Le son des timbales par A. Chaigne, P. Joly et L. Rhaouti), on limite le volume de calculs en supposant les parois parfaitement absorbantes. La guitare a en quelque sorte disparu de ce maillage en cubes : on appelle cette méthode les domaines fictifs. Pour calculer l’interaction entre l’air et la guitare, on introduit un maillage de la surface de la caisse, constitué de triangles aux sommets desquels la différence entre les pressions interne et externe est calculée. Les mouvements de la table sont quant à eux décomposés sur ses cinquante premiers modes de vibration (figure du haut). Cela nous ramène à cinquante équations dépendant du temps, solvables « à la main ».

Le calcul le plus limitant est celui qui concerne l’air : il y a cent points sur la corde, 3 000 points pour calculer les modes de table et un million de points dans l’air. Calculer six secondes de son (300 000 pas de temps) nécessite deux heures de calcul sur un bon PC. Les simulations numériques obtenues à l’aide de ce modèle révèlent les vibrations de l’instrument au cours du temps lorsqu’on pince une de ses cordes et la pression dans l’air environnant la guitare (figure du bas). Suffisamment proche de la réalité, le modèle proposé simule un grand nombre de caractéristiques des guitares réelles, comme la puissance de l’instrument dans les différentes directions à une fréquence donnée (sa directivité), une donnée qui intéresse les preneurs de son. Le modèle informe en outre sur des phénomènes difficilement accessibles, tels le transfert d’énergie entre les diverses parties de l’instrument.

Ce modèle procure ainsi une aide à la conception et à l’innovation. Il permet en effet de tester l’influence d’une modification structurelle de l’instrument, par exemple pour l’adapter à la morphologie des enfants, mais aussi des matériaux nouveaux. Cette seconde problématique deviendra d'ailleurs une question cruciale dans les années à venir, en raison de la disparition de certaines essences de bois exotiques traditionnellement utilisées en lutherie, quelques-unes sont déjà interdites d’exploitation.

Si vous avez envie d'en savoir plus sur les simulations de la guitare acoustique.

Une première version de cet article est parue dans le dossier n°52 La modélisation informatique, exploration du réel de la revue Pour la Science, numéro de juillet/septembre 2006.

 

DOCUMENT         inrestices.info          LIEN

DES ROBOTS HUMANOÏDES DANS LES USINES ...

22/02/2016

Paris, 12 février 2016
Des robots humanoïdes dans les usines aéronautiques de demain

Développer des technologies de robotique humanoïde pour effectuer des tâches difficiles dans les usines aéronautiques, c'est le programme de recherche commun, d'une durée de quatre ans, du Joint Robotics Laboratory (CNRS/AIST)1 et d'Airbus Group. Il sera officiellement lancé le 12 février 2016 à l'ambassade de France à Tokyo2. L'introduction d'humanoïdes sur les lignes d'assemblage aéronautiques permettra de décharger les opérateurs humains des tâches les plus laborieuses ou dangereuses. Ils pourront ainsi se concentrer sur des tâches à plus forte valeur ajoutée. La principale difficulté pour ces robots sera de travailler dans un environnement exigu : comment réaliser certains mouvements sans entrer en collision avec les nombreux objets alentours ? C'est la première question à laquelle devront répondre les chercheurs, en développant de nouveaux algorithmes de planification et contrôle des mouvements précis.
Du fait de la taille des appareils aéronautiques (par exemple des avions de ligne) et du très grand nombre de tâches à effectuer sur peu d'unités, l'utilisation de robots spécialisés à base fixe, déjà utilisés dans l'industrie automobile, est impossible dans l'industrie aéronautique. D'autres difficultés s'ajoutent : même si des robots constitués d'une base mobile et d'un bras manipulateur peuvent être utilisés par l'industrie (comme chez Airbus Group par exemple), ceux-ci sont limités dans leurs déplacements. Ils n'ont, en effet, pas la possibilité de monter des escaliers ou des échelles, de passer des obstacles au sol, etc. De son côté, le Joint Robotics Laboratory (JRL, CNRS/AIST) développe, à partir des modèles de robots HRP-2 et HRP-43, des nouvelles technologies de locomotion dites multi-contacts : en s'aidant de tout son corps pour prendre contact avec son environnement, et non seulement avec ses pieds, ce type de robot peut monter des échelles et entrer dans des endroits exigus. La possibilité d'avoir des contacts multiples permet aussi d'accroître la stabilité du robot et la force qu'il peut appliquer lorsqu'il effectue une tâche. De plus, la forme anthropomorphique de ces robots offre une polyvalence utile pour effectuer un grand nombre de tâches différentes dans des environnements variés.

La collaboration entre les chercheurs du JRL et Airbus Group a donc pour but de permettre aux robots humanoïdes d'effectuer des tâches de manipulation dans un environnement contraint et limité, les lignes d'assemblage, où ils devront faire un usage coordonné de leur corps pour mener à bien leur mission. Les espaces exigus requièrent en effet des postures particulières. Le calcul de telles postures s'avérant mathématiquement complexe, les chercheurs devront tout d'abord développer de nouveaux algorithmes, bien plus puissants que ceux existants actuellement, tout en gardant ces calculs suffisamment rapides pour que les mouvements des robots restent efficaces. Les tâches typiques que les robots auront à effectuer seront, par exemple, de serrer un écrou, de nettoyer une zone de ses poussières métalliques ou d'insérer des pièces dans la structure de l'appareil. Ils pourront également vérifier le bon fonctionnement des systèmes une fois la fabrication terminée.

Ces algorithmes seront testés sur un ensemble de scénarios tirés des besoins des différentes branches d'Airbus Group (Aviation Civile, Hélicoptères, et Spatial), et dont le réalisme ira croissant au fil des années. Du côté de la recherche en robotique, en plus de l'apport des nouveaux algorithmes, cette collaboration mettra peut-être en lumière des insuffisances des robots actuels (design, précision ou puissance, par exemple). Elle pourrait également permettre de spécifier le cahier des charges de la première génération de robots humanoïdes dédiés à la manufacture de grandes structures, d'ici 10 à 15 ans.

DOCUMENT cnrs LIEN

ASTROPHYSIQUE

29/01/2016

Paris, 30 octobre 2014
Voyage au coeur d'un système solaire triple en formation

Une équipe internationale d'astronomes, dont des chercheurs du LAB (CNRS/Université de Bordeaux), de l'IPAG (CNRS/Université Joseph Fourier Grenoble 1) et de l'IRAM (CNRS/MPG/IGN), a mené l'étude la plus précise à ce jour du cocon de gaz et de poussières du système GG Tau A. En combinant des observations complémentaires aux longueurs d'onde submillimétriques (ALMA et IRAM) et infrarouges (VLTI/ESO), les chercheurs ont pu mettre en évidence la dynamique complexe au sein de GG Tau. Ils ont ainsi détecté pour la première fois des mouvements de matière démontrant que des exoplanètes peuvent se former non seulement autour d'un des membres de ce trio d'étoiles jeunes, mais aussi à très grande distance dans le disque entourant ces trois soleils. Ce travail observationnel, publié le 30 octobre dans la revue Nature, révèle une histoire plus complexe qu'on ne l'imaginait.
Si les découvertes observationnelles récentes ont démontré l'existence de nombreuses planètes autour des étoiles doubles, leur formation se heurtait au problème des instabilités gravitationnelles engendrées par la nature binaire de ces astres. Les observations d'étoiles jeunes binaires sont encore trop rares pour fournir une image détaillée de ces processus. Jusqu'à très récemment, GG Tau A, située à près de 450 années-lumière de la Terre dans la constellation du Taureau, était connue comme une étoile binaire avec deux composantes Aa et Ab. Mais des mesures infrarouges récentes réalisées avec les instruments du VLT et du VLTI (ESO) ont révélé que GG Tau A est en fait un système stellaire triple1 : GG Tau Ab est elle-même une étoile binaire. L'étoile centrale Aa est suffisamment éloignée du couple Ab pour être entourée d'un disque circumstellaire, observé dès 2011 avec l'interféromètre de l'IRAM.

Autour de ce système stellaire triple, les chercheurs ont déjà mis en évidence un disque de gaz et de poussières en rotation, évidé en son centre par les effets de marée gravitationnels. En tournant les unes autour des autres, les trois étoiles créent en effet une zone gravitationnellement instable appelée cavité, où la matière ne peut que transiter avant de tomber sur les étoiles centrales. Plus loin, là où réside l'anneau externe de matière, le champ gravitationnel n'est plus perturbé et la matière en rotation peut s'organiser en une structure stable. L'existence d'une cavité centrale autour de GG Tau A, connue dès les années 1990 grâce aux observations de l'interféromètre de l'IRAM, confirmait en partie ces prédictions théoriques. Dans les années 2000, on a détecté la présence de gaz dans cette cavité, mais la dynamique précise de ce gaz, pierre essentielle à la compréhension des mécanismes d'accrétion donnant naissance aux planètes, restait largement méconnue.

Dans cette nouvelle étude, des observations du monoxyde de carbone (CO sous forme gazeuse) et de l'émission des grains de poussière autour de GG Tau A ont été obtenues de manière complémentaire avec les interféromètres ALMA (Chili) et IRAM (Alpes françaises). Elles ont permis de lever une partie du voile sur la répartition de la matière et sur la dynamique à l'intérieur de la cavité, avec une précision encore jamais atteinte dans ce domaine. Les images montrent en effet un filament de gaz provenant de l'anneau externe tombant vers les étoiles centrales. La quantité de gaz ainsi transportée se révèle suffisante pour alimenter le disque interne autour de GG Tau Aa. Les mouvements de gaz observés confirment ainsi les prédictions des simulations numériques antérieures. Ils démontrent que la matière provenant de l'anneau externe est capable de nourrir le disque interne autour de GG Tau Aa pendant assez longtemps pour éventuellement permettre la formation des exoplanètes.

Si ce résultat était attendu, le suivant l'était moins : les deux cartes de l'émission du CO révèlent une surbrillance remarquable sur le bord externe de l'anneau autour du système stellaire triple. Son étude détaillée montre qu'elle est deux fois plus chaude que le milieu environnant et qu'il pourrait s'agir de la signature d'une jeune exoplanète géante en cours de formation. Cette planète serait en train de creuser un fin sillon dans le disque externe, mais la détection d'une telle structure reste pour l'heure hors de portée des instruments. La mise en service prochainement des antennes NOEMA2 de l'IRAM sur le plateau de Bure sera, sans nul doute, un atout majeur pour en savoir plus sur GG Tau, un système de soleils jeunes qui n'a pas fini de livrer ses mystères.

  DOCUMENT         cnrs        LIEN   

PIERRE BOULEZ

24/01/2016

 

Boulez Pierre

1925-2016

 

Pierre Boulez

Né à Montbrison, 26 mars 1925, mort à Baden-Baden, 5 janvier 2016.

Il reçoit des cours de piano à l'âge de sept ans. Après des études secondaires dans une institution religieuse, il prépare à Lyon l'École polytechnique. Il s'installe en 1942 à Paris. En 1944 il est admis au Conservatoire, dans la classe d'harmonie de Messiaen. Il obtient un 1er prix d'harmonie en 1945. Il étudie le contrepoint avec Andrée Vaurabourg, André Leibowitz l'initie à la musique sérielle (dodécaphonique).

De 1946 à 1956,  il est directeur de la musique de scène de la Compagnie Renaud-Barrault. C'est dans les activités liées à cette fonction qu'il aborde la direction d'orchestre.

En 1953, il dirige les « Concerts du Petit Marigny » qui deviennent en 1954 « Le Domaine Musical » spécialisé dans la musique contemporaine. Il en assure la direction jusqu'en 1967.

De 1955 à 1967, il enseigne l'analyse musicale et la direction d'orchestre au festival de Darmstadt.

En 1958, il s'installe à se fixe à Baden-Baden à l'invitation du Südwestfunk.

De 1960 à 1966 il enseigne l'analyse musicale et la direction d'orchestre à l'Académie de musique de Bâle

En 1962-1963, il donne des cours à Harvard et rédige Penser la musique aujourd'hui. 

En 1966 il est invité par Wieland Wagner à diriger Parsifal à Bayreuth, puis Tristan et Isolde au Japon.

En 1967, suite à un désaccord avec le ministre de la culture, André Malraux, sur la gestion étatique de l'art et de la culture, il cesse ses activités en France. De 1967 à 1972, il est principal chef invité de l'Orchestre de Cleveland ; de 1971 à 1975 chef permanent de l'Orchestre symphonique de la BBC ; de 1971 à 1977 (après avoir été pour le première fois à son pupitre en 1969), il dirige l'Orchestre philharmonique de New York, en succession à Leonard Bernstein.

En 1972, il reprend ses activités en France quand le gouvernement décide de joindre un centre de recherche musical au projet du Centre d'art contemporain de Beaubourg. Le Président Georges Pompidou le charge du projet et lui confie la direction. l'Institut de recherche et coordination acoustique/musique (Ircam) ouvre ses portes à l'automne 1977. Pierre Boulez assure sa direction jusqu'en 1992.

En 1975, dès sa création sous l'autorité de Michel Guy, secrétaire d'Etat aux Affaires culturelles, il préside l'Ensemble Intercontemporain (EIC).

En 1976, il est nommé professeur au Collège de France et pour le centenaire du « Ring », il dirige la Tétralogie de Wagner, dans une mise en scène de Patrice Chéreau (ce programme est donné 5 années de suite).

En 1979, il dirige la première mondiale de la version intégrale de Lulu d'Alban Berg, à l'Opéra de Paris (avec Patrice Chéreau).

Dans les années 1980, il participe aux projets de l'Opéra de la Bastille et de la Cité de la musique à la Villette à Paris, et marque souvent son désaccord sur les choix techniques imposés par les décideurs politiques.

En 1988, une suite de six émissions télévisées lui est consacrée : Boulez xxe siècle. Il est le compositeur invité du centre Acanthes, à Villeneuve-les-Avignon. Il y donne des cours de direction d'orchestre et dirige Répons à la carrière Boulbon dans le cadre du festival d'Avignon.

A partir de 1992, dégagé de ses obligations à la direction de l'Ircam, il intensifie sa carrière de dirigeant. Il signe un contrat d'exclusivité avec Deutsche Grammophon et le festival de Salzbourg lui consacre une programmation exhaustive.

En 1995, son 70e anniversaire est marqué par un cycle de concerts pour l'inauguration de la Cité de la musique à la Villette, une tournée mondiale avec le London Symphony Orchestra (Londres, Paris, New York, Tokyo), des concerts au Japon avec quatre orchestres différents et la production de Moïse et Aaron à l'Opéra d'Amsterdam, dans une mise en scène signée Peter Stein.

 

DOCUMENT            musicologie.org       LIEN

CRISE CARDIAQUE

24/01/2016

CRISE  CARDIAQUE             LIEN

LES PARTICULES ÉLÉMENTAIRES

23/01/2016

Les particules élémentaires


- dans mensuel n°306 daté février 1998 à la page 92 (3073 mots) |
La quête de l'élémentaire occupe philosophes et hommes de science depuis plus de... vingt-cinq siècles ! Leucippe de Milet est le premier, en Occident, à définir l'atome comme la particule la plus élémentaire. Insécables car très petits, durs et incompressibles, les atomes de Leucippe, puis ceux de Démocrite, diffèrent par leur forme, leur arrangement et sont animés d'un mouvement continu, éternel et désordonné. Ils composent toutes choses, y compris l'âme. Epicure leur rajoutera une autre propriété, une sorte de pesanteur. Leur mouvement est, selon lui, régulier et dirigé vers le bas mais peut se trouver légèrement dévié. Cette théorie atomiste sera vivement combattue au Moyen Age par la tradition aristotélicienne qui préfère une vision du monde en quatre qualités primordiales le chaud, le froid, l'humide et le sec et une substance particulière omniprésente, l' aither . En Occident, la théorie atomiste gagne du terrain au cours des siècles. La publication en 1913 de l'ouvrage Les Atomes par Jean Perrin marquera finalement le triomphe de la théorie atomisteI.

La reconnaissance de la structure intime de l'atome démarre avec la découverte de l'électron, découverte qui fut l'aboutissement de travaux menés entre 1890 et 1900 en Angleterre, en Irlande, en Allemagne, en Hollande et en FranceII. En 1905, l'année où il conçoit la relativité restreinte, Albert Einstein propose de considérer la lumière comme un flux de particules élémentaires, de « quanta d'énergie localisés en des points de l'espace » , qui ont été appelés plus tard photons. L'existence de ces particules sera confirmée en 1923, par l'Américain Arthur Holly Compton*. Dix années plus tôt en 1911, une équipe de l'université de Manchester dirigée par Lord Rutherford démontre, à partir de données expérimentales le bombardement de feuilles d'or avec des atomes d'hélium chargés positivement que le centre des atomes est occupé par un noyau de très petite taille chargé positivement. En 1920, Rutherford baptise la charge positive du noyau proton . L'idée admise, à cette époque, est que le noyau contient les deux particules élémentaires, proton et électron. Mais douze années plus tard, James Chadwick, du laboratoire Cavendish à Cambridge, découvre à l'intérieur du noyau une particule électriquement neutre. Il la nomme neutron, celui-ci accède provisoirement au statut de particule élémentaire. L'idée qu'une sous-structure puisse exister à l'intérieur est venue ensuite naturellement... En 1964, Murray Gell-Mann et Georges Zweig élaboraient, de façon indépendante, le concept de quarks, constituants élémentaires des protons et des neutrons. Leur mise en évidence eut lieu dans les années 1970 aux Etats-Unis.

Une particule élémentaire ne peut se représenter - comme on le trouve encore souvent - par une petite bille. Entendons-nous : cette représentation naïve n'est pas incorrecte lorsqu'on se place dans le cadre de la mécanique classique ; la matière macroscopique n'est-elle pas symbolisée par les physiciens comme un ensemble de points matériels, de lieux où se concentre la masse ? En électromagnétisme, les mouvements de ces points peuvent être décrits grâce au concept de champ introduit par Faraday au milieu du XIXe siècle. Structure infinie étendue à l'ensemble de l'espace et du temps, le champ est devenu au fil des années un concept fondamental pour comprendre la matière. Mais il pose un problème. Comment, en effet, concilier ce concept, fondé sur des équations qui reposent sur la continuité, et la notion de particule, par essence discontinue ? La théorie quantique des champs introduite dans les années 1930 résout l'antagonisme. Alors que la mécanique classique va observer un morceau de matière et se poser les questions : dans quel état est-il ? quelle est sa vitesse, son énergie ? La théorie quantique des champs renverse le point de vue en disant : voici tous les états qui peuvent être occupés ou pas par des particules dans le cadre d'une interaction, comment sont-ils occupés ? Les champs quantiques sont les opérateurs qui remplissent ou vident ces états. Remplir c'est créer une particule, vider c'est l'annihiler. La particule n'est donc plus un point matériel mais un échantillon, un digit de champ quantique défini pour un certain type d'interaction. La comparaison avec l'informatique n'est pas gratuite : la particule élémentaire est en quelque sorte, un 1 ou un 0 dans un programme informatique. Les échantillons de champ peuvent être des constituants de la matière, les fermions*, ou bien être des vecteurs d'interactions, les bosons*. Bosons et fermions ont des propriétés très différentes. D'abord, le moment cinétique* intrinsèque ou spin est nul ou entier pour les bosons et demi-entier pour les fermions. Ensuite les fermions sont impénétrables. Lorsqu'il y en a un quelque part, on ne peut pas en rajouter un autre au même endroit. La matière ne se superpose pas. Les bosons, au contraire, peuvent tous se trouver dans le même état, au même endroit. Le photon est un boson : on superpose des rayons lumineux.Le théoricien et l'expérimentateur ne voient pas et ne représentent pas la particule de la même façon. Une particule étant pour le théoricien un digit de champ, le concept premier est donc, pour lui, le champ et non la particule. La nature des champs quantiques est prédéterminée par les quatre interactions fondamentales et par les symétries qu'elles respectent voir tableau ci-dessous.
Que signifie pour une interaction respecter une symétrie ? Prenons l'exemple de l'électromagnétisme. Pour décrire l'interaction électromagnétique, le physicien utilise la notion de potentiel*. Une dérivation* par rapport aux coordonnées de l'espace lui permet de passer du potentiel au champ. De la même façon qu'une famille infinie de droites parallèles possède la même pente, il existe une infinité de potentiels qui donnent le même champ.
Tous ces potentiels sont identiques à une « origine près » : si l'on transforme un potentiel en un autre, les équations n'en sont pas affectées. En mécanique quantique, les physiciens utilisent le terme d'invariance ou symétrie de jauge* pour décrire ce type de transformation. Or, il se trouve - sans que nous comprenions vraiment pourquoi - que les quatre interactions fondamentales et les équations qui les décrivent respectent des symétries de ce type.
Ceci a, bien sûr, des répercussions sur les champs quantiques associés aux interactions et donc sur les propriétés des particules, les digits de champs. Ainsi, quand un théoricien pense particules, il pense symétries, interactions, champs.
Dans les équations, il symbolise les particules par des potentiels, fonctions de plusieurs paramètres comme le temps t ou la position x, y, z. Mais l'expérimentateur, lui, voit les particules bien différemment.
Une particule est, à ses yeux, une signature dans un certain type de détecteur, autrement dit une trace ou un ensemble de traces. Il la désigne par des lettres u, Z, t, n, e ...et non par des potentiels ou des champs quantiques.Parmi les particules connues, certaines sont présentes dans la nature, comme l'électron, particule constitutive des atomes de matière, ou comme le neutrino, particule neutre présente dans les rayons cosmiques*. D'autres n'auraient existé que dans les tout premiers instants de l'Univers et ne peuvent être détectées qu'auprès des grands accélérateurs ou collisionneurs. Pourquoi ? Imaginons, que nous voulions découvrir dans une structure, comme le proton, une sous-structure plus petite. Une première idée est de sonder cette structure en envoyant une ou des particules sondes sur elle. Ces particules sondes ont, selon la dualité onde-corpuscule* établie par Louis de Broglie en 1923, des longueurs d'onde associées. Or, nous savons qu'un phénomène ondulatoire n'interagit qu'avec des objets de dimension supérieure à sa longueur d'onde un nageur ne perturbe pas la houle, laquelle se trouve en revanche affectée par la marche d'un paquebot.... Pour sonder des objets petits, il faut donc envoyer sur eux des particules sondes de très courte longueur d'onde, ce qui signifie aussi très énergiques. Les accélérateurs cible fixe ou les collisionneurs cible en mouvement sont construits sur ce principe. Détaillons ce qui se passe dans un collisionneur où deux faisceaux de particules de haute énergie circulent en sens opposés. La collision entre deux particules des deux faisceaux produit un choc d'où émergent d'autres particules en vertu du principe d'équivalence entre masse et énergie, le fameux E = mc2, une des conséquences de la théorie de la relativité restreinte élaborée en 1905 par Albert Einstein.
Plus le choc est énergique, plus les particules créées sont massives... ce qui ne veut pas dire qu'elles sont plus grosses, au contraire ! Plus elles sont massives, au sens énergétique du terme, plus leurs dimensions, ou encore leur longueur d'onde associée est petite... La durée de vie des particules est si brève, quelque 10­20 s, qu'aucune caméra, aucun microscope n'est capable d'observer directement le résultat de la collision. Ce que les expérimentateurs détectent ce sont les produits stables de leur désintégration. Pour connaître leur position et leur énergie, ils placent autour du point de collision plusieurs détecteurs qui forment une structure géante en oignon voir schéma.
Ces dispositifs sophistiqués ont une faiblesse : ils ne permettent pas d'arrêter les particules non chargées et n'interragissant que faiblement, comme les neutrinos.Dans la théorie de la relativité restreinte, la masse est reliée à l'énergie et à la quantité de mouvement* pÆ de la particule de la façon suivante : E2 ­ p2=m2 en supposant c = 1, c vitesse de la lumière dans le vide. Dans cette équation m est la masse invariante de la particule, m = E si pÆ = oÆ ; m est donc la masse au repos. Si la masse de la particule est nulle, on a E = p, autrement dit une particule de masse nulle est une particule qui va à la vitesse de la lumière quel que que soit le référen- tiel.
Conclusion : une particule de masse nulle est une particule qui n'est jamais au repos !Elles existent puisqu'on les a observées ! D'abord dans le rayonnement cosmique, puis dans les accéléra- teurs et les collisionneurs. Mais l'existence des antiparticules avait été suppo- sée avant qu'on puisse les observer, à la fin des années 1920 par le physicien britannique Paul Dirac. Pour réconcilier la mécanique quantique et la théorie de la relativité, il imagina une particule d'énergie positive, de masse égale à celle de l'électron, mais de charge électrique opposée. L'anti-électron positon était né. Ce dédoublement purement théorique du monde en « particules-antiparticules », autrement dit en « matière- antimatière » fut expérimentalement confirmé dès 1932. Aujourd'hui, toutes les anti-particules des particules élémentaires connues ont été découvertes.
Une antiparticule possède la même masse, le même spin que la particule du même nom mais des charges opposées - « charges » au pluriel. Toute particule ou antiparticule porte, en effet, un certain nombre de charges charge électrique, charge de couleur, nombre baryonique, charge de saveur.... Ces nombres sont des sortes d'étiquettes qui définissent le comportement de la particule ou de l'antiparticule dans les interactions.
L'une des grandes énigmes de la physique actuelle est le déficit d'antimatière mesuré dans l'Univers. Si la matière et l'antimatière ont des propriétés symétriques, pourquoi la nature aurait-elle préféré la première à la seconde ?
En 1967, le physicien russe Andrei Sakharov a proposé une théorie pour expliquer cette dissymétrie.Deux types de particules existent à l'intérieur du groupe des fermions voir p. 95 : d'un côté les leptons, qui ne participent pas à l'interaction forte, de l'autre les quarks, de différentes saveurs et de différentes couleurs qui participent à toutes les interactions. Les charges de saveur six au total et de couleur trois au total des quarks déterminent leur comportement vis-à-vis respectivement de l'interaction faible et forte. Les bosons, vecteurs des quatre interactions fondamentales, sont le photon pour l'interaction électromagnétique, les gluons pour l'interaction forte qui lient les quarks entre eux, les bosons W+, W­ et Zo, porteurs de l'interaction faible, enfin le graviton, le boson de la gravitation. Fermions et bosons ont été regroupés en trois familles dans le modèle standard, cadre conceptuel permettant de prédire tous les phénomènes mettant en jeu les interactions fondamentales autre que la gravitation*. Curieusement, les deux dernières familles peuvent être vues comme des répliques de la première à un détail près : leur particule ne se distingue des particules de la famille n° 1 que par leur masse ! Un muon est un autre électron sauf qu'il est un peu plus lourd, un tauon est un muon encore plus lourd. C'est un peu comme si la nature avait bégayé trois fois... Les physiciens l'admettent : le modèle standard qu'ils ont construit aurait très bien pu fonctionner avec une seule famille de particules. Pourquoi alors y en a-t-il trois, et pas une ou cinq ? C'est d'ailleurs une des grandes questions de la physique contemporaine. Ce bégaiement de la nature n'est pas sans conséquences. Pour le comprendre, revenons sur les symétries. La théorie des champs quantiques implique l'existence d'une symétrie dite CPT, produit des symétries C on remplace la charge par une charge opposée, P on change le signe des coordonnées spatiales, et T on renverse le sens du temps. L'invariance de la physique par cette symétrie CPT pouvait laisser penser qu'il existait aussi une invariance par C, par P, par CP et par T, pris séparément. Or, l'interaction faible brise ce principe : elle n'est pas invariante par CP. Pratiquement, cela signifie que, dans certains processus de désintégrations radioactives, changer la charge d'une particule en la charge opposée et regarder le résultat dans un miroir inversion des coordonnées, est un processus qui n'a pas la même probabilité que le processus de départ... Cette brisure de la symétrie CP pourrait donc expliquer la prédominance dans l'Univers de la matière sur l'antimatière, laquelle a toujours la charge opposée à la matière. Les physiciens sont parvenus à montrer que, dans le cadre du modèle standard, la brisure n'est possible que s'il existe au moins trois familles de particules. Une ne suffit pas, deux non plus. Autrement dit, le bégaiement de la nature serait une des clefs de la prédominance de la matière sur l'antimatière dans l'Univers...Aucune ne l'est en principe. Elles peuvent en revanche être plus ou moins difficiles à observer, comme les neutrinos, ces leptons de charge électrique nulle. L'existence de ces particules neutres fut prédite par Wolfgang Pauli en 1932. Vingt ans plus tard, on découvrait le premier neutrino. Les neutrinos sont difficiles à observer car ils ne sont pas chargés et ne participent qu'à l'interaction faible : leur probabilité d'interagir avec la matière est par conséquent quasi nulle. Cette propriété complique aussi la mesure de leur masse, laquelle est peut-être nulle. La détection des quarks est, elle aussi, difficile même si ces fermions participent à toutes les interactions. Un quark ne peut s'observer directement pour la bonne raison qu'il se déplace toujours en bande, soit avec deux autres quarks, soit avec un antiquark.
Nous savons de plus qu'il existe trois couleurs possibles pour un quark ; or, ces couleurs sont telles que leur mélange par trois ou par deux produit des objets « blancs » - les seuls visibles d'après la théorie de l'interaction forte. Nous ne pouvons donc observer directement que les assemblages de quarks mais jamais les quarks isolés !Le physicien des particules ne peut répondre à cette question. Il peut certes prédire, grâce au modèle standard , un certain nombre de variables mais pas la valeur exacte des masses des particules. En revanche, la question « Pourquoi les particules élémentaires ont-elles une masse ? » occupe de nombreux théoriciens et expérimentateurs. En effet, d'après le modèle standard actuel, toutes les particules devraient logiquement être de masse nulle ! Pour comprendre cela, revenons quelques instants sur les propriétés d'invariance. Nous avons vu les quatre interactions fondamentales respectaient des invariances de jauge. Or, ces symétries imposent aux particules d'interaction, les bosons, d'être de masse nulle. C'est bien le cas du photon interaction électromagnétique ou des gluons interaction forte mais pas des bosons intermédiaires interaction faible très massifs 90 GeV, soit quatre-vingt dix fois la masse du proton. Pour expliquer ce phénomène, les physiciens ont inventé un nouveau champ quantique, le champ de Higgs, générateur de masse, et une nouvelle interaction associée, le mécanisme de Higgs. Pourquoi le champ de Higgs aurait-il rendu massives toutes les particules, à l'exception du photon et du gluon ? D'après le modèle standard, le phénomène correspond à une brisure spontanée de symétrie du champ de Higgs dans l'état fondamental stable qu'est le vide. C'est un peu comme si vous posiez une bille au fond d'une bouteille : l'état stable est trouvé lorsque la bille est à gauche ou à droite du cul de la bouteille état non symétrique, pas au-dessus état symétrique. Si le mécanisme de Higgs est valide, il faut alors imaginer l'existence d'une particule massive associée, le dénommé boson de Higgs. La course au boson de Higgs a d'ores et déjà commencé. Sa masse importante, quelques centaines de GeV, pourrait expliquer qu'on ne l'a pas encore découvert... Le grand projet de collisionneur à 14 TeV du CERN sera le test grandeur nature du mécanisme de Higgs.

Elémentaires, direz-vous ?
Pour certains physiciens, la structure de la matière en quarks, leptons et bosons pourrait n'être qu'une image encore très simplifiée de la réalité. Au plan théorique, le mécanisme de Higgs possède d'ailleurs de nombreuses inconsistances.
Une amélioration possible est d'envisager l'existence d'une sous-structure au sein des particules du modèle standard. Les énergies correspondantes seraient mille fois plus élevées que les énergies qui ont permis de mettre en évidence les quarks. Si elle existe, cette sous-structure doit impérativement être compatible avec toutes les observations réunies jusque-là. Une contrainte qui limite énormément l'ensemble des solutions mais qui laisse encore de la place à la discussion... Une autre façon d'améliorer le mécanisme de Higgs est l'idée qu'il existe deux autres bosons de Higgs donc deux autres champs quantiques de Higgs et surtout que chaque particule du modèle standard actuel possède un partenaire supersymétrique. Dans cette hypothèse, les bosons auraient des partenaires fermions, et les fermions des partenaires bosons. Tous ces partenaires supersymétriques auraient des masses de quelques centaines de GeV...
Ce nouveau dédoublement du monde après celui de la « matière-antimatière » sera testé sur le futur LHC au CERN. Mais l'imagination des physiciens ne s'est pas arrêtée là... Une approche, radicalement différente, proposée à la fin des années 1970, consiste à imaginer que les champs quantiques actuellement répertoriés ne sont que des approximations de basse énergie d'un phénomène que les physiciens désignent sous le terme de super-cordes.
Dans ce cadre conceptuel, les particules élémentaires actuellement repertoriées seraient des modes, des exci- tations d'une corde, objet fondamental étendu de très petite taille. Pour être étudié, ce modèle, sorte de théorie fondamentale ultime de la physique quantique, nécessiterait des énergies de 1019 GeV, soit l'énergie d'un Boeing 747 à sa vitesse de croisière concentré dans une particule ! La théorie des supercordes sera-t-elle validée aux basses énergies sur le LHC ? Certains en ont fait le pari.

DOCUMENT larecherche.fr LIEN

AUTISME

21/01/2016

Paris, 12 janvier 2016

L'autisme se cache-t-il dans un pli du cerveau ?

Des chercheurs du CNRS, d'Aix-Marseille Université et de l'AP-HM ont identifié un marqueur cérébral spécifique de l'autisme, détectable par IRM et présent dès l'âge de deux ans. L'anomalie repérée consiste en un pli moins profond au niveau de l'aire de Broca, une région du cerveau spécialisée dans le langage et la communication, des fonctions altérées chez les patients atteints d'autisme. Cette découverte pourrait aider au diagnostic et à une prise en charge plus précoces de ces patients. Elle a été rendue possible par les compétences en traitement d'imagerie médicale de l'Institut de neurosciences de la Timone (CNRS/Aix-Marseille Université) et par l'accès à une cohorte de patients homogène, diagnostiqués très jeunes et ayant tous été évalués selon le même protocole au Centre de ressources autisme PACA. Les résultats de leur collaboration sont publiés le 12 janvier 2016 dans la revue Biological Psychiatry: Cognitive Neurosciences and Neuroimaging.

Les troubles du spectre autistique sont un ensemble de troubles neurodéveloppementaux (autisme typique, syndrome d'Asperger ou encore trouble envahissant du développement non spécifié) qui affectent principalement les relations sociales et la communication. Ils sont associés à un développement anormal du cerveau. Les données récentes en neuro-imagerie suggèrent notamment l'existence d'anomalies dans le plissement du cortex cérébral (la formation des circonvolutions à la surface du cerveau). Cependant, les mesures classiques de neuro-anatomie avaient échoué, jusqu'à maintenant, à mettre en évidence des marqueurs spécifiques de chacune de ces troubles, et notamment de l'autisme typique.

Des chercheurs de l'Institut de neurosciences de la Timone se sont intéressés à un nouveau marqueur géométrique, appelé « sulcal pit ». Il s'agit du point le plus profond de chaque sillon du cortex cérébral. C'est à partir de ces points que se développent les plis présents à la surface du cerveau. Ils sont donc mis en place très tôt au cours du développement, probablement sous influence génétique, ce qui en fait des indicateurs adaptés aux comparaisons entre individus.

A partir de résultats d'IRM, les chercheurs ont observé les sulcal pits chez 102 jeunes garçons âgés de 2 à 10 ans, classés en trois groupes (enfants atteints d'autisme typique, enfants atteints de trouble envahissant du développement non spécifié et enfants dépourvus de troubles du spectre autistique). En comparant les trois groupes, ils ont découvert que, dans l'aire de Broca (une région connue pour être impliquée dans le langage et la communication), la profondeur maximale d'un sillon était moindre chez les enfants atteints d'autisme par comparaison aux deux autres groupes. De manière intéressante (bien que contre-intuitive), cette atrophie très localisée est corrélée aux performances de communication chez le groupe d'enfant autistes : plus le sulcal pit est profond, plus les compétences en termes de production de langage sont limitées.

Cette anomalie spécifique aux enfants atteints d'autisme pourrait donc constituer un biomarqueur de la pathologie qui pourrait aider à un diagnostic et à des prises en charge plus précoces, dès l'âge de deux ans. En effet, à l'heure actuelle, l'autisme est diagnostiqué sur la base uniquement de signes cliniques, à partir de l'observation des enfants et d'entretiens avec leurs parents et le diagnostic est posé en moyenne à 4 ans et demi en France.

Cette étude a aussi débouché sur une découverte concernant le développement du cerveau. Alors que l'on pensait que le plissement du cortex était achevé à la naissance, les chercheurs ont observé que certains sillons (les plus superficiels) continuent à se creuser avec l'âge. Et ce, de manière identique chez les enfants atteints d'autisme et chez les autres. La recherche biomédicale peut donc également nous éclairer sur la compréhension des mécanismes du vivant.

DOCUMENT CNRS LIEN

MATHÉMATIQUES

21/01/2016

Paris, 14 octobre 2015

Une avancée sur la compréhension mathématique des équations d'Einstein

Énoncée il y a quinze ans, la conjecture de courbure L2 a enfin été démontrée par un groupe de trois chercheurs du laboratoire Jacques-Louis Lions (CNRS/UPMC/Université Paris Diderot) et de l'université de Princeton. Elle fournit un cadre potentiellement minimal dans lequel il est possible de résoudre les équations d'Einstein. Cela pourrait être une étape cruciale vers la démonstration de conjectures majeures, comme les conjectures de censures cosmiques de Penrose. Ce travail a été publié le 14 octobre 2015 dans la revue Inventiones Mathematicae.

La théorie de la relativité générale d'Albert Einstein a beau fêter ses cent ans cette année, elle recèle encore son lot de mystères. Cette théorie de la gravitation stipule que la matière courbe l'espace-temps avec un effet d'autant plus fort que la masse de l'objet est importante. Ce phénomène se mesure grâce à un outil mathématique appelé tenseur de courbure, sur lequel la conjecture de courbure L2 se concentre afin de trouver des cadres possibles pour construire des solutions aux équations d'Einstein. Énoncée il y a quinze ans par Sergiu Klainerman, cette conjecture a enfin été démontrée grâce aux travaux de Sergiu Klainerman, Igor Rodnianski et Jérémie Szeftel.

La conjecture de courbure L2 stipule que les équations d'Einstein admettent une solution si, à l'instant initial, le tenseur de courbure de l'espace est de carré intégrable, c'est-à-dire que l'intégrale de son carré est un nombre fini. Cette résolution de la conjecture de courbure L2 est importante car elle constitue une étape probable vers la démonstration des célèbres conjectures de censure cosmique de Penrose, qui traitent des singularités gravitationnelles. Il s'agit de régions pathologiques de l'espace-temps où le champ gravitationnel devient infini, comme au centre d'un trou noir. La présence de tels cas dans les solutions aux équations d'Einstein pourrait remettre en cause la validité physique de la relativité générale.

Roger Penrose présume que ces singularités ne sont jamais visibles car elles sont génériquement cachées derrière l'horizon des événements : la zone d'un trou noir à partir de laquelle la lumière ne peut plus s'échapper et donc nous parvenir. Si ces phénomènes restent encore bien loin de notre portée, les équations qui les régissent sont aujourd'hui un peu moins mystérieuses grâce à ces travaux.

DOCUMENT cnrs LIEN

Articles

MUCOVISCIDOSE

Il y a 19 heures

Mucoviscidose
 
Dossier réalisé en collaboration avec Claude Férec, directeur de l’unité mixte de recherche 1078 Inserm/Université de Bretagne occidentale/EFS, chef de service du laboratoire de génétique du CHU Brest, directeur adjoint et scientifique de l'EFS Bretagne - Septembre 2014
La mucoviscidose est une des maladies génétiques potentiellement graves les plus fréquentes en France et dans les pays occidentaux. Elle touche surtout les fonctions digestives et respiratoires. Ses symptômes invalidants et les complications infectieuses et fonctionnelles qui en découlent impactent l’espérance de vie des patients. Heureusement, les espoirs thérapeutiques se multiplient. 

En France, 200 enfants naissent chaque année avec la mucoviscidose, soit en moyenne 1 sur 4 500 nouveaux-nés, avec une forte disparité régionale due aux socles génétiques locaux : la maladie concerne ainsi 1 enfant sur 3 000 en Bretagne, contre 1 sur 7 à 8 000 en Languedoc-Roussillon. Par ailleurs, les populations européennes sont plus fréquemment concernées que celles d’origine africaine ou asiatique. La France compterait 6 000 patients.

Aujourd’hui, grâce aux progrès de la recherche et à l’amélioration de la prise en charge de cette maladie, l’espérance de vie moyenne d’un patient est approximativement de 40 ans, alors qu’elle n’était que de 5 ans dans les années 1960. Il est probable que les enfants malades nés ces dernières années voient leur espérance de vie encore améliorée, a fortiori si de nouveaux traitements font prochainement leur apparition.

Une maladie liée à l’extrême instabilité du gène CFTR
La mucoviscidose est une maladie génétique dite ‘autosomique récessive’, transmise par deux parents porteurs sains : chacun d’eux transmet un allèle muté du gène codant pour la protéine CFTR  (Cystic fibrosis transmembrane conductance regulator), présent au niveau du chromosome 7. Avec l'amélioration de l’espérance de vie des patients, la mucoviscidose peut aussi être transmise par un couple au sein duquel figure un malade et un porteur sain ou même deux malades.
La protéine CFTR est une protéine présente dans la membrane des cellules de différents muqueuses : respiratoire, digestive… Elle fonctionne comme un canal qui permet l’échange d’ions chlorures entre l’intérieur et l’extérieur de la cellule. Lorsque son gène est muté, le canal dysfonctionne. Par le biais de différentes cascades biologiques, il en résulte notamment une diminution de l’eau excrétée au niveau des muqueuses et, en conséquence, une inflammation et un épaississement du mucus qui le recouvre. Ce phénomène entraîne l’apparition des symptômes habituels de la mucoviscidose.

 
Le gène CFTR peut être porteur de nombreuses mutations : près de 2 000 altérations différentes du gène ont d’ores et déjà été identifiées. Parmi elles, la mutation Delta F508 est la plus fréquente : elle est présente chez 70 % des malades sous forme hétérozygote (une seule copie), et chez 50 % d’entre eux sous forme homozygote (deux copies).
Les différentes mutations identifiées engendrent des dysfonctionnements dont la sévérité est variable. Ainsi, la mucoviscidose est une maladie dont l’expression est plus ou moins sévère selon la nature des mutations portées par le patient. La mutation Delta F508, expose quant à elle à une forme relativement sévère de mucoviscidose.
Par ailleurs, il est aujourd’hui démontré que des gènes modificateurs, codant pour des protéines sans rapport direct avec le canal CFTR, peuvent aussi influencer l’expression de la maladie. Plusieurs d’entre eux ont été identifiés.  Ils peuvent expliquer pourquoi deux patients ayant le même profil génotypique ne présentent pas la même expression phénotypique de la maladie.

Des symptômes respiratoires et digestifs prédominants
La mucoviscidose est une maladie qui se manifeste le plus souvent dès la naissance ou les premiers mois de vie. Elle touche principalement la fonction respiratoire et gastro-intestinale.
L’épais mucus qui encombre les bronches entraîne en premier lieu l’installation d’une bronchopneumopathie chronique obstructive (BPCO) qui épuise progressivement les capacités respiratoires du patient, entraînant à terme une insuffisance respiratoire. D’autres complications peuvent se développer avec le temps, comme des atélectasies (affaissement des alvéoles pulmonaires sur elles-mêmes) ou un pneumothorax (affection de la plèvre).
 
Le mucus présent dans les bronches fait également le lit d’infections bactériennes fréquentes et spécifiques par Staphylococcus aureus (staphylocoque doré), Haemophilus influenzae ou encore Pseudomonas aeruginosa.
Au niveau gastro-intestinal, près de 85 % des patients touchés par la mucoviscidose ont une insuffisance pancréatique, responsable d’une malabsorption des graisses. Seules les porteurs d’une ou deux mutations peu sévères peuvent espérer conserver la fonctionnalité de l’organe jusqu’à l’âge adulte, voire indéfiniment. Le mucus présent au sein du tractus intestinal favorise par ailleurs les stases (arrêt du transit), les alternances diarrhées/constipation, la malabsorption des nutriments et des vitamines.
Les hommes atteints de la maladie sont généralement stériles : les canaux déférents qui permettent d’évacuer les spermatozoïdes des testicules sont en effet obstrués in utero par un bouchon muqueux, provoquant leur involution.
Enfin, d’autres symptômes peuvent apparaître, souvent secondairement, sans que leur étiologie ne soit bien comprise : cirrhosedu foie, diabète, pathologies cardiaques…
 
Un diagnostic systématisé
Dans l’immense majorité des cas, la maladie est diagnostiquée dès la naissance de l’enfant, grâce à la démarche de dépistage systématique implantée dans toutes les maternités de France depuis 2002. Seuls quelques rares cas de mucoviscidose modérée ne seront identifiés qu’à un âge plus avancé, voire adulte.
Le dépistage systématique se déroule en deux temps : le premier consiste à doser la trypsine immunoréactive dans le sang des nouveau-nés au troisième jour de vie, à partir de quelques gouttes de sang prélevées par une piqûre au talon. Cette molécule est une enzyme pancréatique dont le passage dans le sang est favorisé par l’obstruction in utero des canaux pancréatiques par du mucus. Un taux élevé est associé à un risque élevé de mucoviscidose. Pour les enfants concernés, la présence des mutations du gène codant pour la protéine CFTR est recherchée dans le second temps, à partir du même échantillon sanguin. Si le test génétique est positif, le diagnostic de mucoviscidose peut être posé.
Un test biologique complémentaire est systématiquement réalisé. Ce test dit ‘de la sueur’ permet de doser les ions chlorures après avoir favorisé la sudation du patient. Ce taux est anormalement élevé chez les malades atteints de mucoviscidose.
Les couples dans lesquels existe une personne malade et ceux ayant déjà un enfant atteint bénéficient d’un conseil génétique. Ces rendez-vous sont notamment l’occasion de proposer une enquête génétique familiale, étendue ‘en cascade’ aux frères et sœurs. Ce travail permet d’identifier les porteurs sains de la famille : si dans un couple, les deux futurs parents sont concernés, ils pourront bénéficier d’un diagnostic prénatal.

Une prise en charge très spécialisée
Dès l’établissement du diagnostic, les personnes atteintes de mucoviscidose sont suivis au sein de centres de soins spécialisés, les Centres de ressources et de compétences de la mucoviscidose (CRCM). Le traitement qui leur est proposé est symptomatique : il vise à réduire les manifestations de la maladie et leurs complications. Il repose sur la prise de mucolytiques et de fluidifiants bronchiques, associée à des séances régulières de kinésithérapie améliorant l’expectoration bronchique. Tous les 3 à 4 mois, un traitement antibiotique préventif est prescrit pour limiter le risque d’infections respiratoires. Lorsque l’insuffisance respiratoire est terminale, une oxygénothérapie devient nécessaire. Une greffe pulmonaire peut aussi être envisagée en dernier recours. Afin de traiter les manifestations extrapulmonaires, des traitements antiinflammatoires, des extraits pancréatiques, des vitamines et supplémentations caloriques sont également prescrits.

Des pistes thérapeutiques encourageantes
Depuis la découverte du gène CFTR défectueux en 1989, les efforts de recherche se sont accentués. Ils ont permis de réelles avancées dans la compréhension de la maladie et ouverts plusieurs pistes de développement thérapeutique.
La première idée qui a émergé a été de corriger les anomalies génétiques responsables de la maladie par thérapie génique. Cette approche utilise un vecteur viral modifié pour introduire puis remplacer au sein des cellules souches pulmonaires le gène muté par sa version normale. Les essais cliniques conduits jusqu’à présent ont été décevants car les vecteurs utilisés (adénovirus, lentivirus) sont apparus immunogènes et le succès du ciblage des cellules souches aléatoire. Pour pallier ces inconvénients, des vecteurs de synthèse sont aujourd’hui développés. L’un d’eux, le GL67A (développé par un consortium britannique) est aujourd’hui en cours d’évaluation clinique.

La seconde alternative consiste à corriger le fonctionnement de la protéine CFTR. Les efforts de recherche ayant permis de déterminer précisément la structure et la configuration du canal sous sa forme normale, l’incidence de chaque mutation sur la fonctionnalité de la protéine CFTR a en effet pu être identifiée. Il est ainsi apparu que certaines mutations engendrent un défaut de repliement de la protéine CFTR sur elle-même, l’empêchant de s’intégrer à la membrane cellulaire. Mais d’autres version de la protéine mutée dysfonctionnent tout en étant bel et bien présente dans la membrane. Aujourd’hui, beaucoup d’équipes internationales cherchent donc à développer des molécules qui interagiraient avec la protéine CFTR, pour lui permettre de s’intégrer dans la membrane (correcteurs), ou pour améliorer son fonctionnement lorsqu’elle est présente mais inactive (potentiateurs).

En 2012, le premier médicament potentiateur, Kalydeco® (Laboratoire Vertex Pharmaceuticals) a reçu une autorisation européenne de mise sur le marché. Alors uniquement destiné aux patients porteurs de la mutation G551D (soit environ 4 % des diagnostics), la commercialisation de ce médicament a été élargie à 7 autres mutations en juillet 2014.
D’autres candidats médicaments sont en phase de développement ou d’essais cliniques ou précliniques. Parmi ces projets, une équipe internationale conduite par des chercheurs de l’Institut fédératif de recherche Necker-Enfants malades (CNRS/Inserm/Université Paris Descartes), étudie actuellement l’association de deux molécules – l’une correctrice et l’autre potentiatrice – qui permettrait de traiter les sujets porteurs de la mutation la plus fréquente Delta F508.

 

DOCUMENT      inserm     LIEN 

Radioactivité faibles doses, fortes doses, sommes-nous tous égaux

Il y a 7 jours

Radioactivité : faibles doses, fortes doses, sommes-nous tous égaux ?
22 mars 2011

 

L’accident de la centrale de Fukushima au Japon a suscité de nombreuses questions sur les effets des diverses doses de radiooactivité pour la population. A quelle quantité de radioactivité sommes-nous quotidiennement exposés, quels sont les effets de faibles doses pour la santé et sommes-nous tous égaux au plan biologique ?
Informations complémentaires

La radioactivité : un dossier d’information du CEA

Les réponses de Nicolas Foray, chercheur au sein du groupe de radiobiologie de l’Unité Inserm 836 (Grenoble).
 
Quelles sont les principales sources de radioactivité auxquelles nous sommes habituellement exposés ?

Pour la population générale, les deux principales sources d’irradiation sont la radioactivité naturelle et l’irradiation d’origine médicale (mammographies, scanners, radiodiagnostic…). Alors que la première a une contribution d’environ 45 %, la seconde (environ 25 %) a doublé en 10 ans et pourrait, pour certains individus dépasser la radioactivité naturelle. Notons cependant que la radioactivité naturelle (environ 2,4 mSv/an en France) varie significativement avec le lieu. Elle peut notamment atteindre plus de 20 mSv/an dans l’Etat du Kerala en Inde où l’incidence moyenne de cancers n’est pas significativement différente du reste du monde. Suivant les publications, la radioactivité naturelle peut prendre en compte les radiations qui proviennent de l’espace (rayonnement cosmique issu du soleil et des étoiles) et l’irradiation dite interne (radioactivité naturellement émise par notre corps). Par exemple, un homme de 80 kg émet environ 8000 particules par seconde (8000 Bq). On trouve la même valeur pour 1 kg de granit.
 
Effets pour la santé : une question de dose(s)
La radioprotection est basée sur 2 grandeurs majeures :
- l’activité émise (nombre de désintégrations par seconde ou Becquerels (Bq)
- la dose (énergie absorbée par kg de matière exprimée en Joules/kg ou Gray (Gy)
Afin de différencier la dose reçue selon la nature des particules émises, l’organe cible et la surface touchée, on parle pour les effets chez l’homme d’équivalent de dose ou dose efficace, exprimé en Sievert (Sv).
Quelques ordres de grandeur utiles :
Radioactivité naturelle : 1-20 mSv par an (des pics à 40 mSv ont été reportés en Iran)
Une radiographie du bras : 0,1 à 1 mSv en quelques minutes
Une mammographie : 1 à 4 mSv en quelques minutes
Un scanner du thorax : 10-20 mSv en quelques minutes
Une session de radiothérapie : 2 Sv en quelques minutes à la tumeur (une radiothérapie est faite de plusieurs sessions espacées de 24 h)
En dehors de la radioactivité naturelle et de toute irradiation d’origine médicale, la limite individuelle pour le grand public (hors travail) est de 1 mSv/an (corps entier), 15 mSv/an pour le cristallin et 50 mSv/an pour chaque cm2 de peau.

Quels sont les effets d’une irradiation au plan biologique ?

Une irradiation produit des dégâts sur l’ADN des cellules. Ils peuvent n’avoir aucun effet s’ils sont réparés fidèlement, mener à la mort cellulaire et perturber la fonction de l’organe touché (toxicité) s’ils ne sont pas réparés ou initier un phénomène de cancérogénèse en cas de mauvaise réparation. La vitesse et l’intensité de la réponse dépendent de nombreux facteurs comme la dose, la nature du rayonnement, l’organe irradié et la susceptibilité individuelle.
Dans le cas d’une irradiation sur le corps entier, la dose létale moyenne est de 5 Gy pour l’homme. Pour des doses croissantees, supérieures à 1-2 Gy, le syndrome d’irradiation aigüe se traduit principalement pour les plus fortes doses par, successivement une altération de la composition sanguine, un dérèglement gastro-intestinal et des troubles neurologiques.
En deçà de 1 Gy, les manifestations de toxicité sont plus rares mais on peut observer une baisse temporaire des globules rouges, de la fertilité et de l’immunité.
Par contre, l’effet cancérogène prédomine. La survenue des cancers dépend de la dose mais aussi de la biologie de l’organe. Globalement, plus les cellules de cet organe se renouvellent rapidement de façon naturelle, plus la survenue du cancer est rapide. Les cancers radioinduits les plus fréquents sont les leucémies et les cancers de la thyroïde chez l’enfant (notamment dûs à l’iode radioactif).

Existe-t-il une dose-seuil en dessous de laquelle il n’y a pas de risque ?
La toxicité pour les cellules irradiées à faibles doses (notamment inférieures à 0,1 Gy) est mal connue. En effet, pour des raisons statistiques, plus la dose est faible, plus les effets sont difficiles à mettre en évidence. Il faut compenser les contraintes statistiques par des analyses à plus grande échelle et celles-ci sont plus difficiles à mettre en place. Globalement, l’histoire des catastrophes nucléaires a permis de définir un seuil de 100 à 200 mGy, au-delà duquel on considère que le risque de cancer radioinduit existe. Que se passe-t-il à des doses inférieures à ce seuil ? Les travaux de recherche expérimentale sur les cellules de modèles animaux prédominent mais l’extrapolation à l’homme devient de moins en moins admise. L’épidémiologie humaine reste limitée par l’étude de rares accidents (Tchernobyl) ou événements (Hiroshima, Nagasaki) de nature très différente pour permettre une généralisation satisfaisante. Par contre, l’étude des faibles doses sur les cellules humaines a révélé des phénomènes non-linéaires inattendus comme par exemple des taux de mort cellulaires aussi élevés à 0,1 Gy qu’à 1 Gy. Ces études ont surtout montré que le facteur individuel peut changer drastiquement la réponse toxique et de cancérogénèse à une irradiation à faible dose.
Faut-il considérer le risque de cancers radioinduits dans l’intervalle 0-100 mSv comme proportionnel à la dose (modèle linéaire sans seuil) ou au contraire comme négligeable (modèle non linéaire avec seuil) ? Un débat s’est engagé entre scientifiques…

Sommes-nous tous égaux face aux radiations ?
L’identification puis la prise en compte du facteur individuel sera l’un des enjeux majeurs de la radiobiologie de demain. Alors qu’elle avait déjà été évoquée par les pionniers de l’atome au début du XXème siècle, l’usage de traitements anti-cancer standardisés a un peu fait oublier l’évidence expérimentale et clinique que « nous ne sommes pas égaux face aux radiations ». L’étude des complications survenues après radiothérapie a notamment montré qu’il existait des individus dits « radiosensibles » et d’autres présentant à l’inverse un seuil de tolérance plus élevé que la moyenne. A dose égale, le nombre de cellules détruites sera donc plus important chez certaines personnes et les effets plus rapides et intenses. En particulier, des cassures double-brin de l’ADN produites par les radiaitons peuvent être toutes réparées au bout de 24 h chez un individu considéré comme "radiorésistant" alors que des patients présentant des complications se distinguent par l’absence de réparation de quelques-unes.
Les règles de la radioprotection proposées par la Commission Internationale de Protection Radiologique (CIPR) ne tiennent pas encore compte de la susceptibilité individuelle aux radiations alors que celle-ci peut constituer un facteur plus important que le type de radiation ou l’organe irradié. Les marqueurs et les tests ne sont toutefois pas encore assez puissants pour détecter les différences inter-individuelles à ce jour ; les progrès technologiques de génomique et d’analyse de masse ainsi que le développement des recherches sur les effets biologiques des faibles doses de radiation feront sans nulle doute changer cette position dans les années à venir mais posera de nombreux problèmes pratiques et éthiques.

Peut-on se protéger d’une contamination par des particules radioactives ?
Il existe deux types d’exposition aux radiations :
- une irradiation externe produit par un irradiateur ou une source de radioactivité qui irradie de l’extérieur le corps entier ou un organe,
- une contamination interne qui, à travers la peau (cutanée, transcutanée), les poumons (par inhalation) ou les aliments (par ingestion) apporte dans le corps la source d’irradiation (dans ce cas un radionucléide).
La protection dépendra donc du type d’exposition et du type de radiation mais c’est la règle D.A.T.E qui est le plus évoquée
- Distance : le rayonnement diminue avec l’inverse du carré de la distance homme-source (difficilement applicable pour une contamination interne)
- Activité : réduire l’activité de la source notamment par des dilutions (notamment applicable pour une contamination interne)
- Temps : minimiser le temps d’exposition (voir plus haut)
- Ecran : dans le cas d’une irradiation externe, des protections dans différents matériaux dépendant du type de radiation peuvent être utilisés (plomb, béton, etc…). Notons cependant qu’un rayonnement secondaire peut être émis par l’écran lui-même (exemple des astronautes dans leur vaisseau spatial) et représenter une source d’irradiation non négligeable.
En plus de cette règle facile à retenir, notons des mesures à prendre spécifiques de certaines sources d’irradiation :
- pour le radon, aérer régulièrement les pièces
- pour l’iode radioactif, saturer la thyroïde par des pastilles d’iodure de potassium mais seulement après émission d’un message national (saturer sans contamination ou trop tardivement est inefficace et peut être dangereux).
Des substances dites "radioprotectrices" peuvent être utilisés dans le cadre d’une radiothérapie anti-cancéreuse pour mieux protéger les tissus sains et limiter les complications. Elles consistent à réduire le stress oxydatif induit par les radiations mais ne sont toutefois pas adaptées à tous les cas de patients ou de traitements et doivent être utilisées seulement dans un cadre médical précis.

 

DOCUMENT      inserm     LIEN 

Troubles de l’audition surdités

Il y a 14 jours

Troubles de l’audition / surdités


Dossier réalisé en collaboration avec Jean-Luc Puel (unité Inserm 1051 /université de Montpellier, Institut des neurosciences de Montpellier) – avril 2016

Le nombre de cas ne cessant de progresser avec l’âge, la surdité affecte 6% des 15-24 ans et plus de 65% des 65 ans et plus. Face à cette problématique, la recherche est particulièrement active : au cours de la dernière décennie, des avancées spectaculaires ont été réalisées dans la compréhension des mécanismes et des facteurs génétiques responsables des troubles auditifs. Les récents progrès technologiques devraient permettre d’améliorer les performances des aides auditives et des implants existants, et les scientifiques espèrent désormais pouvoir régénérer des cellules ciliées de l’oreille interne par la thérapie génique.

Cochlée en microscopie électronique à balayage : sur la membrane spirale se trouvent les cellules ciliées.
En France, chaque année, près d’un millier de nouveau-nés (0,25%) sont affectés desurdité. Dans 40% des cas, le trouble est sévère et profond, avec de lourdes conséquences sur l’acquisition du langage oral et sur le développement socio-affectif de l’enfant. Trois quarts des ces surdités sont d’origine génétique (liées à une anomalie de l’oreille), les autres étant acquises au cours de la grossesse ou pendant la période périnatale.

Le nombre de cas ne cesse ensuite de progresser avec l’âge, la surdité touchant  6% des 15-24 ans, 9% des 25-34 ans, 18% des 35-44 ans et plus de 65% des plus de 65 ans. Il s’agit alors de surdités acquises au cours de la vie, suite à des traumatismes acoustiques, des maladies (otites chroniques dans environ 20 % des cas, tumeurs, etc.), des accidents (plongée) ou encore des toxicités médicamenteuses. La plupart de ces facteurs contribue à la destruction progressive de cellules qui jouent un rôle central dans les mécanismes de l’audition (voir plus loin). Le vieillissement peut être associé aux mêmes phénomènes, conduisant à une perte auditive qui apparaît le plus souvent à partir de 50-60 ans. On parle alors de presbyacousie.
Plusieurs degrés de pertes auditives sont observés : 
*         légères (perte auditive de 20 à 40 dB),
*         moyennes (perte auditive de 40 à 70 dB),
*         sévères (perte auditive de 70 à 90 dB),
*         profondes (perte auditive de 90 à 120 dB).
Ces pertes auditives entraînent des conséquences variables sur la vie sociale. Les surdités moyennes ont un impact négatif sur les apprentissages scolaires, le développement cognitif et l’adaptation sociale. Les surdités profondes ne permettent pas l’acquisition du langage oral. Chez les personnes de plus de 65 ans, une perte d’audition est associée à un déclin cognitif (altération de la mémoire, des capacités d’attention ou encore de l’utilisation de certains éléments de langage), sans pour autant favoriser la survenue d’une démence de type maladie d’Alzheimer. Ce déclin est sans doute lié à un isolement social progressif.
Les surdités acquises sont assez fréquemment accompagnées d'acouphènes, une perception auditive (battements, grésillements, sifflements) en l'absence de tout stimulus externe, qui peut être très invalidante.

Le son converti en signal électrique
L’audition résulte du couple oreille-cerveau. L’oreille capte les ondes sonores et transmet les vibrations jusqu’à la cochlée. Là, des cellules ciliées les transforment en signaux électriques transmis jusqu’au cerveau par le nerf auditif. C’est à ce niveau que les sons seront traités, interprétés et mémorisés.
Pour assurer ses fonctions, l’oreille est divisée en trois parties : l’oreille externe se compose du pavillon (la partie visible) et du conduit auditif qui mène jusqu’au tympan. Son rôle est de capter, amplifier et focaliser les sons vers l’oreille moyenne. Lorsque les ondes sonores frappent le tympan, celui-ci se met à vibrer. Ces vibrations parviennent jusqu’à l’oreille moyenne constituée de petits os articulés. Ces osselets les transmettent jusqu’à une membrane appelée fenêtre ovale, située à l’entrée de l’oreille interne. Cette dernière renferme la cochlée, une structure en forme de spirale composée de 15 000 cellules ciliées capables de transformer les vibrations en signaux électriques transmis au cerveau par le nerf auditif.
Plusieurs facteurs peuvent contribuer à la destruction brutale ou progressive des cellules ciliées et du nerf auditif, provoquant un déficit auditif irrémédiable.
Fréquence et intensité du son
Un son correspond à une onde sonore captée par l’oreille et qui fait vibrer le tympan. Sa fréquence correspond au nombre de vibrations par seconde et s’exprime en Hertz. Si elle est faible, le son est grave, à l’inverse, si elle est élevée, le son est aigu. Les fréquences captées par les humains varient de 20 à 20 000 Hz. L’intensité, exprimée en décibels, dépend de l’amplitude des vibrations. Plus elle est importante, plus le son est fort. L'oreille humaine capte des intensités comprises entre 0 et 120 dB, niveau à partir duquel des structures de l'oreille interne peuvent être irréversiblement détruites.
Prévention majeure : réduire l’exposition aux bruits excessifs
L’exposition au bruit est une cause première de troubles de l’audition. Des niveaux sonores élevés détruisent de façon irréversible les cellules ciliées et altèrent les fibres nerveuses auditives. C’est le cas de nombreux bruits associés à des activités de loisirs (concerts, boîtes de nuit, baladeurs, etc.). La législation du travail a fixé des seuils de tolérance :
*         Au-delà de 85 dB, une exposition de plus de huit heures nécessite une protection,
*         Au-delà de 90 dB (perceuse), il faut limiter l’exposition à deux heures,
*         Au-delà de 100 dB (marteau piqueur), il ne faut pas dépasser quinze minutes d’exposition,
*         Passé 115 dB (explosion, avion au décollage), des bruits très brefs provoquent immédiatement des dommages irréversibles.
Il existe cependant une grande variabilité individuelle face au bruit. Certains gènes semblent notamment influer sur la sensibilité au traumatisme sonore.
Autre cause de surdité, l’ototoxicité de certains médicaments. Des antibiotiques (comme les aminoglycosides) ou des anticancéreux (en particulier le cisplatine) peuvent en effet être toxiques pour le système auditif. Là encore, on observe une variabilité individuelle considérable face à cette toxicité.


Le dépistage, à tous les âges
La recherche d’un déficit auditif peut être effectuée dès la naissance, de manière rapide, indolore et automatisée. Certains pays européens pratiquent même un dépistage systématique à la naissance. Par la suite, la médecine scolaire ou l’entourage peuvent déceler un déficit. Chez les enfants, les répercussions d'une surdité seront différentes selon qu'elle apparaît avant ou après l'acquisition du langage. Chez l'adulte, le dépistage est proposé dès l’âge de 45-50 ans dans le cadre de la médecine du travail, et plus précocement et régulièrement dans les situations à risque (travail en milieu bruyant, militaires, etc.).
Lorsque le dépistage décèle un risque de déficience, des tests réalisés dans un cadre spécialisé permettent de définir le type de surdité et son importance.
*         L’audiométrie tonale est le test le plus courant. Il consiste à rechercher des réflexes ou des réactions en réponse à des émissions de sons, pour des fréquences allant le plus souvent de 125 Hz (graves) à 8 000 Hz (aiguës),
*         L’audiométrie vocale permet d’évaluer la compréhension. Le sujet doit répéter correctement des mots simples et courants de différentes intensités,
*         Les otoémissions acoustiques sont des vibrations générées par les cellules ciliées externes de la cochlée suite à une stimulation sonore. Leur enregistrement permet de vérifier que ces cellules et l’oreille moyenne fonctionnent correctement. Il s’agit d’un bon outil de dépistage néonatal,
*         Les potentiels évoqués auditifs automatisés s’enregistrent grâce à des électrodes placées sur le cuir chevelu, en stimulant les oreilles avec une intensité sonore. Ce test permet de vérifier le fonctionnement de la cochlée et du nerf auditif.
Les spécialistes constatent que les tests classiques ne permettent pas toujours de dépister une atteinte partielle des fibres des nerfs auditifs, une partie d’entre elles étant suffisante pour analyser les sons. Ainsi, face à des tests normaux mais une plainte persistante d’un patient, notamment une plainte correspondant à une mauvaise compréhension en environnement bruyant, il est nécessaire d’effectuer une audiométrie vocale en environnement bruyant.
Des traitements de plus en plus sophistiqués
Les traitements consistent à rétablir ou à augmenter l'intensité des vibrations parvenant à l'oreille interne, ou à corriger l'anomalie à l'origine de la surdité. Ainsi, lorsque le trouble auditif est lié à un défaut de fonctionnement de la chaîne tympano-ossiculaire, comme une perforation du tympan, une destruction ou un blocage des osselets, l’anomalie peut être corrigée par chirurgie.
Les aides auditives
En cas de déficits auditifs légers à modérés, des aides auditives conventionnelles, dites en conduction aérienne, sont proposées aux patients. Leur fonctionnement repose sur la captation du son par un ou plusieurs microphones. Le signal capté est traité par un microprocesseur, amplifié puis réémis via un écouteur placé dans le conduit auditif externe. Des aides en conduction osseuse peuvent également être utilisées. Elles permettent de stimuler directement l’oreille interne à travers les os du crâne : les vibrations sonores sont captées par un microphone et transmises à l’os temporal par un vibrateur placé derrière l’oreille. Les vibrations de la paroi osseuse autour de la cochlée sont alors transférées aux cellules ciliées.

Les implants

Chirurgie : pose d'un implant cochléaire par le Professeur Olivier Sterkers (ORL) et son équipe, hôpital Beaujon, Clichy.
Pour les surdités très sévères, voire totales, des implants sont recommandés. Il en existe deux types : l’implant d’oreille moyenne fonctionne à l’image des aides en conduction osseuse. Il est fixé sur un osselet ou à proximité de l'oreille interne, capte les vibrations et les transmet à l’oreille interne. L’implant cochléaire comprend quant à lui un processeur externe qui transforme les sons en signaux électriques. Ces derniers sont transmis (sous forme d’ondes) à la partie interne de l’implant. Le rôle de celle-ci est d’émettre des impulsions électriques (grâce à des électrodes) qui stimulent les fibres du nerf auditif. Avec cette technique, la compréhension requiert du temps et un apprentissage pour intégrer les informations reçues. Globalement, comprendre dans le silence est acquis par la grande majorité des patients, mais une conversation dans le bruit ou la musique est une situation sonore difficile. Chez l’enfant atteint de surdité profonde, l’implantation cochléaire précoce (entre 12 et 24 mois) a montré d’excellents résultats sur l’acquisition du langage oral.
Une nouvelle tendance consiste à associer aides auditives et implants chez certains patients souffrant de surdités sévères, mais chez lesquels il existe un reliquat d’audition : les implants stimulent la cochlée pour mieux percevoir les sons, particulièrement en fréquences aigues, et les aides auditives augmentent la perception des sons graves.

Et demain ?
Vers une meilleure connaissance des mécanismes auditifs
Les chercheurs connaissent encore mal l’histoire naturelle de la surdité et tentent de comprendre pourquoi certaines personnes sont plus vulnérables que d’autres au bruit, ou connaissent une perte des cellules ciliées ou des fibres nerveuses auditives liée à l’âge plus rapide.
Il a récemment été établi qu’il existe deux types de fibres nerveuses connectées aux cellules ciliées dans la cochlée. Parmi elles, 95% des fibres transmettent l’information sonore au cerveau et les 5% restantes sont des fibres différentes (non myélinisées) et spécialisées dans la transmission d’un signal d’alerte en cas de bruit trop intense, si les cellules ciliées sont malmenées. Concrètement, au-delà d’un certain seuil d’inconfort, ces fibres sont activées et transmettent au cerveau un message douloureux (ou en tout cas désagréable), permettant de prévenir l’individu sur la nécessité de retrouver un environnement plus calme. C’est cette seconde catégorie de fibres qui vient d’être découverte. Elle pourrait jouer un rôle dans la vulnérabilité individuelle au bruit et des travaux sur ce sujet sont en cours.

Avancées en génétique
L’identification de mutations génétiques responsables de surdités constitue, par ailleurs, un axe récent de recherche. Ces mutations affectent des gènes codant pour des protéines impliquées dans le développement ou le fonctionnement de la cochlée. Les surdités génétiques sont le plus souvent des maladies monogéniques, c’est-à-dire impliquant l’altération d’un seul gène. L’un d’eux, DFNB1, découvert en 1997 par l’équipe de Christine Petit dans l’unité de génétique des déficits sensoriels de l'Institut Pasteur, explique à lui seul 50% des surdités congénitales. La connaissance de ces gènes permet de réaliser des diagnostics moléculaires et du conseil génétique pour les familles concernées. Dans certains cas, elle contribue également au choix de la méthode de réhabilitation.

Thérapie génique pour les cellules ciliées
Les scientifiques envisagent la régénération par la thérapie génique des cellules ciliées endommagées. Des résultats prometteurs ont en effet déjà été obtenus sur des cochlées d'oiseaux. L’idée est d’obtenir de nouvelles cellules auditives fonctionnelles à partir de cellules de soutien qui restent présentes après la mort des cellules ciliées. Le transfert du gène Math1 dans l’oreille interne (grâce à un virus) permet d’induire la différenciation des cellules de soutien en cellules sensorielles fonctionnelles. Les données disponibles indiquent qu’il suffirait d’obtenir quelques dizaines de cellules sensorielles pour améliorer considérablement les performances des implants cochléaires.

Améliorations technologiques
Des progrès technologiques devraient permettre d’améliorer les performances des aides auditives et des implants. À ce jour, les implantés cochléaires rencontrent de grandes difficultés en cas de sources sonores multiples ou en présence de sons complexes tels que de la musique. Les chercheurs expérimentent l’augmentation du nombre d’électrodes, du nombre d’impulsions électriques par seconde, ou encore la prise en compte des variations rapides de fréquences.


Traitements transtympaniques

La perte des cellules ciliées résulte en grande partie d’un programme actif de mort cellulaire, appelé apoptose, qui dépend de la nature du stress qui le déclenche (traumatisme acoustique, type de médicament ototoxique, etc.). La connaissance de ces mécanismes a permis d’identifier des cibles thérapeutiques pour s’y opposer.
Ainsi, on songe aujourd’hui à l’utilisation de substances telles que des neurotrophines - pour protéger les neurones et favoriser la repousse des neurites - et des anti-apoptotiques - pour prévenir la mort des cellules sensorielles. Afin d’être en mesure d’administrer ces substances au cœur de l’oreille interne et de façon chronique chez les patients, l’Inserm et le CEA développent actuellement un système de pompe implantable.  Testé chez l’homme, il doit toutefois encore être miniaturisé. Cette pompe sera implantée dans le rocher, une voie couramment utilisée pour les implants cochléaires. Un tel dispositif ne pourra pas être proposé à toutes les personnes âgées malentendantes (presbyacousiques). En revanche, il pourrait être intéressant pour des sujets jeunes atteints d’une presbyacousie précoce et très évolutive.
La pharmacologie locale pourrait prendre une place de plus en plus importante pour protéger les cellules ciliées, préserver celles restantes chez les patients équipés d’un implant cochléaire ou encore prévenir la fibrose locale provoquée par la mise en place d’un implant, qui menace souvent le reliquat auditif des patients.

 

DOCUMENT      inserm     LIEN 

LES TESTS GÉNÉTIQUES

Il y a 20 jours

Les tests génétiques
Dossier réalisé en collaboration avec le Pr François Eisinger, onco-généticien et membre du comité d'éthique Inserm – Mai 2015
De nombreux tests génétiques apportent des informations relatives à la santé des individus ou à celle de leur famille. Ces tests consistent à rechercher des anomalies sur la molécule d’ADN elle-même, ou à dépister des anomalies concernant le nombre ou la forme des chromosomes. Il faut distinguer les tests qui apportent des informations sur le patrimoine génétique transmissible, présent dans toutes les cellules de l’organisme (génétique constitutionnelle), et les tests qui informent sur l’état du génome de cellules tumorales (génétique somatique). En outre, d’autres tests permettent d’obtenir des informations sur la réponse à un traitement ou sur les risques d’effets secondaires (pharmacogénomique).
Les tests de génétique constitutionnelle

Les tests de génétique constitutionnelle (ou héréditaire) reposent sur l’étude du patrimoine génétique d’une personne, le plus souvent à partir d’une prise de sang. Ils peuvent être réalisés avant la naissance (test prénatal) ou après, à n’importe quel âge (test postnatal).
En 2013, des tests concernant plus de 1 500 maladies génétiques étaient disponibles et plus de 500 000 tests postnataux de génétique constitutionnelle ont été réalisés (incluant les tests de pharmacogénomique). Toutefois, une part importante des analyses étaient consacrées à deux maladies : l’hémochromatose et la thrombophilie non rare.
 
Une pratique encadrée par la loi de bioéthique
 
Des règles de bonne pratique concernant l’utilisation de ces tests et l’information à délivrer aux patients et à leur famille sont prévues par la loi de bioéthique et recommandées par l’Agence de biomédecine et la Haute autorité de santé.
 
En France, ces tests sont toujours effectués dans un cadre médical, avec une consultation en génétique permettant d’éclairer le patient et sa famille sur l’intérêt du test et sur les conséquences éventuelles de son résultat (risque pour la descendance, pronostic vital menacé, suivi thérapeutique à mettre en place, interruption médicale de grossesse...). 
Ces tests sont envisagés dans trois situations :
Le diagnostic de maladies génétiques
Un test génétique diagnostic est effectué en cas de symptôme pouvant évoquer une maladie génétique. Le test est alors associé à des examens complémentaires et permet souvent de mettre fin à l’errance diagnostique. La rapidité et les chances de succès du test varient en fonction du nombre de modifications génétiques, et surtout de gènes associés à la maladie : ces tests sont utilisés pour le diagnostic de maladies monogéniques (liées à des anomalies affectant un seul gène), dont le gène causal est identifié (mucoviscidose, hémochromatose héréditaire ou encore polypose colique familiale).
Les tests génétiques diagnostics peuvent être pratiqués chez des enfants et des adultes, mais également chez des fœtus si l’anomalie recherchée a déjà été identifiée chez un parent ou si une symptomatologie évoquant un trouble génétique a été dépistée au cours du développement fœtal, comme en cas de trisomie 21. En 2012, des tests génétiques prénataux ont été réalisés chez plus de 41 000 fœtus.
Génétique prénatal : l’analyse de l’ADN fœtal circulant dans le sang maternel change la donne
 
Il est désormais possible d’analyser des fragments d’ADN fœtal présents dans le sang de la mère et récoltés à partir d’une simple prise de sang chez cette dernière. Cette pratique constitue un progrès important car elle évite des prélèvements invasifs et leurs risques.
 
Deux tests sont déjà proposés en routine avec cette méthode : la détermination du sexe de l’enfant dans le cadre d’un diagnostic prénatal de maladies associées au chromosome X et la détermination du rhésus fœtal lorsque la mère est rhésus négatif. Le dépistage de la trisomie 21 par cette technique commence également à être proposé à certaines femmes et le nombre d’indications devrait rapidement progresser. Toutefois, l’Agence de biomédecine se dit vigilante sur le plan éthique, compte tenu des dérives possibles à venir, liées à la facilité d’analyse de l’ADN fœtal par cette méthode.
Des tests génétiques peuvent également être effectués chez des personnes ne présentant aucun symptôme, mais ayant un risque d’être porteurs d’une mutation associée à une maladie grave et désirant concevoir un enfant. Le résultat du test permet alors d’évaluer le risque de transmettre la maladie à sa descendance.
Le diagnostic préimplantatoire
 
Un couple susceptible de transmettre une maladie génétique grave à sa descendance peut demander un test génétique préimplantatoire. Ce test consiste à rechercher l’anomalie génétique dans le génome d’embryons conçus par fécondation in vitro, avant implantation dans l’utérus de la mère.
 
La maladie recherchée doit présenter un risque élevé de transmission (25 à 50% de risque), être grave et incurable. Des dizaines de maladies répondent à ces critères.
 
L’Agence de biomédecine suit l’activité des laboratoires effectuant des diagnostics préimplantatoires en France, à Paris, Montpellier, Strasbourg ou encore Nantes. En 2012, 464 couples ont été éligibles à un diagnostic préimplantatoire et 91 enfants sont nés après sélection d’embryons sains.
Le diagnostic de maladies pré-symptomatique (tests prédictifs)
Pour les maladies monogéniques :
Les tests génétiques prédictifs sont effectués chez des personnes qui ne présentent aucun symptôme, afin de prédire le risque de développer ultérieurement une maladie. Ces tests peuvent être hautement prédictifs : dans le cas de la maladie de Huntington, par exemple, la mutation cherchée est une condition nécessaire et suffisante pour développer la maladie.
Pour les maladies multifactorielles : 

Il existe des tests prédictifs en cancérologie, notamment proposés lorsqu’une mutation a déjà été identifiée dans la famille. Ces tests apportent une indication concernant le risque de développer la maladie, mais en aucun cas une certitude : les facteurs environnementaux et personnels contribuent largement à la survenue d’un cancer, et les mutations génétiques recherchées lors de ces tests ne sont ni nécessaires, ni suffisantes à l’apparition d’un cancer.
Ainsi, lorsqu’une personne est porteuse d’une mutation sur le gène BRCA1 ou le gène BRCA2, son risque de développer un cancer du sein avant 70 ans est de 40 à 85%, alors qu’il est de 10% dans la population générale. Concernant le cancer de l’ovaire, le risque est de 10 à 60%, contre 1% dans le reste de la population. L’identification de cette susceptibilité permet une surveillance plus précoce et plus rigoureuse des sujets à risque (l’ablation des seins est parfois choisie par les patientes et l’ablation des ovaires recommandée en fonction de l’âge et du projet parental). De même, un test de susceptibilité aux cancers colorectaux héréditaires sans polypose(HNPCC ou syndrome de Lynch) est également disponible. Les personnes présentant une mutation de l’un des gènes de la famille MMR ont 40 à 70% de risque de développer un cancer colorectal avant l’âge de 70 ans.
D’autres tests sont disponibles pour des cancers du rein, des cancers plus rares comme le rétinoblastome, ou encore des néoplasies endocriniennes… Le nombre de tests prédictifs en cancérologie devrait progresser dans les années à venir, en raison de la découverte permanente de nouveaux gènes de susceptibilité associés aux différents cancers. A terme, la possibilité d’effectuer ces tests devrait s’ouvrir au plus grand nombre compte tenu des progrès techniques et de la baisse des coûts. Mais ils devront toujours être réalisés dans le cadre d’un conseil médical et d’une information préalable sur les conséquences possibles en fonction des résultats.
Pour d’autres maladies multifactorielles ayant une composante génétique, comme l’asthme, le diabète ou bien d’autres, aucun test génétique prédictif n’est disponible à ce jour. Plusieurs gènes de susceptibilité à ces maladies ont pourtant été découverts au cours des dernières années. Mais la valeur prédictive des variants identifiés est beaucoup trop faible pour avoir une signification clinique sur le risque de développer la maladie. Cette situation pourrait néanmoins évoluer dans le futur, par exemple en associant plusieurs variants génétiques et en intégrant des données biologiques pour augmenter la valeur prédictive du test.
Quand un test prédictif peut-il être considéré pertinent ?
 
Le centre de contrôle et de prévention des maladies américain (CDC) a proposé des règles, réunies au sein d’un modèle ACCE (validité Analytique, validité Clinique, utilité Clinique et respect de l’Ethique), qui permettent d’évaluer la pertinence de développer un nouveau test génétique.
 
Les critères fixés assurent que le test est réellement prédictif d’une maladie et que la valeur prédictive est satisfaisante. Le doublement du risque d’apparition de la maladie dans les années qui suivent est souvent considéré comme une valeur acceptable, mais ce seuil peut varier selon la gravité de la maladie et les conséquences pour le patient. En outre, le test doit être utile : un diagnostic positif doit pouvoir déclencher une prise en charge adaptée. En cancérologie, les tests permettent par exemple de renforcer la prévention ou le dépistage. Il existe toutefois des exceptions à cette règle : dans le cas de la maladie de Huntington un test génétique prédictif est disponible alors qu’il n’existe actuellement aucun moyen de prévenir le développement de la maladie ou de la traiter. Mais dans ce cas particulier et quelques autres, les patients évoquent le droit de savoir.
 
La pertinence d’un test génétique prend également en compte le respect de la dimension éthique, avec par exemple la nécessité d’une fin médicale (et non eugénique). 
Les tests de pharmacogénétique
La pharmacogénomique consiste à étudier les caractéristiques génétiques d’un individu pour prédire la réponse de son organisme à un médicament : effets secondaires, risques de surdosages, ou encore inefficacité. 
Ces tests permettent de détecter des variants génétiques associés à l’assimilation ou au contraire à la transformation/dégradation du médicament. En 2013, une trentaine de tests étaient disponibles. L’un d’eux permet par exemple de prédire la toxicité au traitement par 5-FU (chimiothérapie) en cas de cancers colorectaux ou du sein. Plus de 3 500 personnes en ont bénéficié en 2013. Autre exemple, un polymorphisme du gène HLA est associé à une hypersensibilité à l’abacavir, un antirétroviral utilisé contre le VIH.
La pharmacogénétique n’en est qu’à ses débuts : grâce à l’analyse des données génétiques des patients inclus dans les essais cliniques, les laboratoires pharmaceutiques développent de plus en plus souvent des tests génétiques associés à la réponse ou à la toxicité d’un traitement.
Comment sont effectuées les analyses génétiques ?
Deux principales approches d’analyses du génome sont utilisées dans le cadre des tests génétiques :
*         La génétique moléculaire, qui consiste à analyser la molécule d’ADN pour détecter des mutations ou autres anomalies de façon ciblée sur le génome. Elle fait appel à des techniques de biologie moléculaire.
*         La cytogénétique, qui consiste à étudier le nombre et la forme des chromosomes pour détecter des remaniements affectant des fragments chromosomiques ou des chromosomes entiers. Le plus souvent, cette étude s’appuie sur l’observation du caryotype du patient, correspondant à la photographie de l’ensemble de ses chromosomes. C’est l’analyse la plus répandue chez les fœtus, avec près de 41 000 caryotypes réalisés en 2012.

Institut de génétique et de biologie moléculaire et cellulaire, Illkirch
Ces deux approches sont de plus en plus perméables, notamment de part l’utilisation croissante d’outils communs tels que les puces à ADN. Environ 14 000 tests ont été effectués avec puces à ADN en 2013 en France, et l’utilisation de cet outil devrait croître dans les années à venir. Cette technique associe l’aspect global du caryotype et la haute résolution de l’hybridation ciblée de la génétique moléculaire. Les puces à ADN permettent de détecter des remaniements chromosomiques cent fois plus petits que ne le permettait jusque-là le caryotype. Dès lors, le risque devient celui de découvrir une autre maladie que celle recherchée… Le comité d’éthique de l’Inserm se penche actuellement sur cette question : que faire d’une information importante pour la santé découverte de façon fortuite, que l’individu n’a pas demandé à savoir et n’est pas forcément désireux d’entendre ?
 
Les tests en vente sur internet et leurs dangers
 
Des tests génétiques sont vendus directement par internet par des sociétés extérieures au système de santé. Les tests proposés ne sont pas forcément validés et ces services sont souvent proposés sans aucune intervention de professionnels de santé. Ce manque constitue un risque de désinformation majeure sur les conséquences possibles des résultats, dans un sens ou dans l’autre. Un conseil en génétique est absolument fondamental pour encadrer toute réalisation de test génétique.
Il existe 229 laboratoires de génétique constitutionnelle postnatale en France. Leur activité est suivie par l’Agence de biomédecine, en collaboration avec Orphanet (portail de référence sur les maladies rares et les médicaments orphelins, coordonné par l’Inserm). Parmi eux, 200 pratiquent des tests de génétique moléculaire et 111 des tests de cytogénétique. Pour 60% des maladies qui bénéficient d’un test génétique (environ 880 sur 1 500), le diagnostic génétique est complexe et nécessite l’expertise d’un laboratoire particulier en France.
Les tests de génétique somatique
Les tests de génétique somatique (non héréditaire) consistent à analyser le génome des cellules cancéreuses pour détecter des mutations survenues spécifiquement dans la tumeur et prédire la réponse à un traitement ciblé. On parle de « test compagnon ». Ils sont réalisés à partir d’une biopsie (ou d’une prise de sang pour les cancers hématopoïétiques), dans l’une des 28 plateformes de génétique moléculaire réparties sur tout le territoire français et rattachées à des établissements hospitaliers.
En 2011, 55 000 patients atteints de cancer ont bénéficié d’un de ces tests en vue d’utiliser l’un des 14 traitements spécifiques d’une anomalie génétique disponibles. Parmi ces patients, 20 000 étaient atteints d’un cancer du poumon et ont bénéficié de la recherche des mutations du gène EGFR, biomarqueurs de la sensibilité au gefitinib.

Détection d'anomalies chromosomiques tumorale
Compte tenu de l’arrivée massive de traitements ciblés en cancérologie, ces tests sont amenés à largement se développer. Plusieurs programmes de recherche clinique sont en cours en France, comme SHIVA à l’Institut Curie, MOSCATO à l’Institut Gustave Roussy, ou encore le programme AcSé coordonné par l’Institut national du cancer pour tester la faisabilité d’un séquençage du génome tumoral en routine, afin de permettre au plus grand nombre de patients possible de bénéficier de traitements ciblés.

 

DOCUMENT      inserm     LIEN 

DÉPRESSION

Il y a 27 jours

Dépression
Dossier réalisé en collaboration avec le Pr Bruno Aouizerate, psychiatre au Centre hospitalier Charles Perrens de Bordeaux, directeur adjoint des soins au sein de la Fondation FondaMental, chercheur au Neurocentre Magendie (unité Inserm 862) – Université de Bordeaux - Août 2014.

La dépression est une maladie qui touche tous les âges, depuis l’enfance jusque très tard dans la vie. Ses nombreux symptômes, parmi lesquels la tristesse ou la perte de plaisir, sont très handicapants et accroissent le risque suicidaire. La maladie peut être soignée efficacement grâce aux médicaments antidépresseurs et à la psychothérapie. Toutefois, le risque de rechute est extrêmement présent et persiste plusieurs années après la rémission. Les chercheurs tentent de comprendre pourquoi certaines personnes sont plus vulnérables que d’autres à la dépression. Au fur et à mesure de leurs découvertes sur les mécanismes de la maladie, de nouvelles pistes thérapeutiques se profilent.
Des symptômes clairement identifiés

Le diagnostic de la dépression répond à des critères très précis fixés par l’Organisation mondiale de la santé (CIM-10, en anglais) et l’Association américaine de psychiatrie (DSM-5, en anglais). Il existe neuf symptômes caractéristiques de la dépression. Pour que le diagnostic de dépression puisse être posé, le patient dépressif doit en présenter au moins cinq, presque tous les jours depuis au moins deux semaines, dont obligatoirement l’un des deux premiers de la liste :

*         une tristesse quasi-permanente, avec parfois des pleurs (humeur dépressive) 
*         une perte d’intérêt et du plaisir à l'égard des activités quotidiennes, même celles habituellement plaisantes (anhédonie)
*         un sentiment de dévalorisation et de culpabilité excessif ou inapproprié
*         des idées de mort ou de suicide récurrentes, le sentiment que la vie ne vaut pas la peine d’être vécue
*         un ralentissement psychomoteur
*         une fatigue (asthénie), souvent dès le matin
*         une perte d’appétit, souvent associée à une perte de poids
*         des troubles du sommeil avec en particulier des insomnies matinales
*         des difficultés attentionnelles, de concentration et de mémorisation
Pour les patients qui présentent entre 5 et 7 symptômes, la dépression est considérée comme légère à modérée. Au-delà de 8, elle est dite sévère. Des échelles d’autoévaluation (évaluation par le patient lui-même) ou d’hétéro-évaluation (par le médecin) permettent d’évaluer plus précisément la sévérité de ces symptômes, comme l’échelle de dépression de Hamilton (HDRS) ou encore l’échelle de dépression de Montgomery et Asberg (MADRS).
Les rechutes, principal facteur de risque à moyen et long terme
 Un premier épisode dépressif peut se résoudre par une rémission spontanée dans les 6 à 12 mois. Mais les épisodes isolés sont assez rares : une première dépression annonce souvent une récidive. Celle-ci intervient dans les cinq années suivantes dans 50 % à 80 % des cas.

Généralement, plus les récidives sont nombreuses, plus la dépression est sévère et le pronostic à long terme compromis. Certains facteurs, par exemple le fait de vivre seul, augmentent le risque de chronicisation de la dépression.
L’objectif du traitement est de réduire les symptômes mais 
aussi de limiter ce risque de récidive à moyen et long terme.

De l’isolement au suicide, des complications dramatiques
Les symptômes dépressifs ont des répercussions familiales, sociales et professionnelles. En effet, il peut être difficile pour l’entourage de comprendre et d’accepter qu’un adulte se lève fatigué, pleure sans raison et n’ait envie de rien faire. Côté vie professionnelle, une étude de la Direction de la recherche, des études, de l'évaluation et des statistiques (Drees), datant de 2014, indique notamment qu’un homme présentant une dépression caractérisée a moins de chance que les autres de conserver son emploi à moyen terme : 82 % versus 93 % à 4 ans.
Selon un rapport de l’Académie de médecine, le risque de tentative de suicide est multiplié par 21 en cas d’épisode dépressif, et par quatre en cas de rémission partielle par rapport à la rémission complète. Au final, entre 5 à 20 % des patients se suicident. La majorité d’entre eux n’ont pas reçu d'antidépresseurs, faute de diagnostic ou de problèmes de suivi. Les personnes sous antidépresseurs au long cours ont un risque suicidaire moindre.
La dépression est en outre associée à une morbidité et une mortalité cardiovasculaire accrue. Elle altère le pronostic des patients présentant ce type d’affections. Elle est d’ailleurs le principal facteur de mortalité après un infarctus du myocarde.

Une maladie qui touche tous les âges
On estime que près d’une personne sur cinq a souffert ou souffrira d’une dépression au cours de sa vie.
Les données de l’Institut national de prévention et d’éducation pour la santé indiquent qu’en 2010, 7,5 % des 15-85 ans avaient vécu un épisode dépressif caractérisé au cours des 12 derniers mois, avec une prévalence deux fois plus importante chez les femmes que chez les hommes. Les chiffres varient par tranche d’âge :  6,4 % chez les 15-19 ans, 10,1 % chez les 20-34 ans, 9 % chez les 35-54 ans et 4,4 % entre 55 et 85 ans. Chez les hommes, la prévalence est maximale entre 45 et 54 ans (10,3 %).
La dépression ne concerne pas que les adultes. La prévalence des troubles dépressifs est estimée à entre 2,1 à 3,4 % chez l’enfant et à 14 % chez l’adolescent. Chez ces jeunes patients, le diagnostic est plus difficile à réaliser que chez l’adulte : les manifestations de la dépression varient en effet en fonction du stade de développement, qui modifie les capacités d’introspection et de communication.

La dépression post-partum
L’arrivée d’un enfant entraine souvent chez la mère des émotions excessives, avec des pleurs incontrôlés dans les jours qui suivent la naissance : c’est le baby blues. Les changements hormonaux brutaux et les facteurs émotionnels en sont la cause. La rémission est le plus souvent très rapide.
Mais chez certaines femmes, cette humeur persiste et une dépression peut alors s’installer. Plusieurs facteurs accroissent le risque de dépression post-partum : se sentir seule, avoir des difficultés financières ou encore des antécédents de dépression.
Cet état peut peser sur la relation précoce entre la mère et son enfant, voire menacer la bonne santé et la sécurité du nourrisson (en cas de difficultés à s’intéresser à l’enfant ou à s’en occuper). Une prise en charge rapide et efficace s’impose.

Des facteurs de risque en cours d’identification
Des situations et des événements de la vie (un décès, une perte d’emploi, une séparation…) sont associés à un risque accru de dépression. C’est aussi le cas de traumatismes précoces, notamment affectifs ou sexuels, survenus au cours l’enfance. Néanmoins, toutes les personnes exposées à ce type d’événements ne développent pas la maladie. De plus, certaines personnes font une dépression sans motif apparent. Il existe donc une susceptibilité individuelle à la dépression.
Cette vulnérabilité est en partie génétique. Ainsi, un individu dont l’un des parents fait une dépression a deux à quatre fois plus de risque d’être lui-même dépressif au cours de sa vie. Certaines variations génétiques associées à cette vulnérabilité ont été identifiées, par exemple au niveau des gènes codant pour le transporteur de la sérotonine (un neurotransmetteur) ou pour un facteur essentiel à la prolifération, la différenciation et la survie des neurones (le BDNF pour Brain-Derived Neurotrophic Factor). Néanmoins, l’impact de ces variations génétiques dépend de l’environnement. On parle d’interaction gène-environnement. Des travaux ont par exemple montré que certains des individus qui développent davantage de dépression et d’idées suicidaires après des stress précoces (menaces, abandon, violences, abus pendant l’enfance) sont ceux qui possèdent des « versions courtes » du gène codant pour le transporteur à la sérotonine.

Neurones à noradrénaline.
D’autres mécanismes semblent impliqués. Ainsi, un déficit dans la régulation du système de réponse au stress (l’axe hypothalamo-hypophyso-surrénalien) et des anomalies des neurones de l’hippocampe (région du cerveau impliquée dans la cognition et les émotions) sont souvent observés chez les patients sévèrement déprimés. Ces deux phénomènes sont d’ailleurs vraisemblablement liés : l’altération de la réponse au stress conduit à une sécrétion anormalement élevée de cortisol (l’hormone du stress) qui est potentiellement neurotoxique et peut entrainer une désorganisation, voire une dégénérescence neuronale dans l’hippocampe. L’augmentation de la sécrétion de cortisol entraîne en effet une diminution de la production du BDNF (Brain Derived Neurotrophic Factor), un facteur essentiel à la prolifération, la différenciation et la survie des neurones.
 
Des traitements efficaces dans près de 70 % des cas
L’objectif du traitement de la dépression est la réduction des symptômes et de leurs répercussions dans la vie quotidienne, ainsi que la prévention de récidives ultérieures. Les traitements antidépresseurs et/ou la psychothérapie permettent d’obtenir une guérison dans 67 % des cas, parfois après plusieurs séquences de traitement.
*         Les antidépresseurs
Les médicaments antidépresseurs ciblent en général les neurones à sérotonine et/ou noradrénaline et/ou dopamine. Ils stimulent la neurotransmission monoaminergique par divers mécanismes. Leur efficacité n’est pas immédiate : l’amélioration des symptômes s’observe le plus souvent après 3 semaines de traitement, parfois plus.
Ces médicaments doivent être pris régulièrement pendant 6 à 12 semaines pour surmonter la phase aiguë de la dépression. Le traitement doit se prolonger 4 à 9 mois (phase de consolidation) pour en maintenir le bénéfice et réduire le risque de rechute. Lorsqu’un patient en est à son troisième épisode dépressif ou plus, le traitement doit se prolonger pendant plusieurs années pour éviter une nouvelle récidive (on parle de phase d’entretien). Les données varient sur la durée optimale du traitement, qui peut aller jusqu’à 5 ans.
L’arrêt du traitement avant la durée recommandée par le médecin expose à un risque plus élevé d’échec de guérison, à moyen ou long terme. Cet arrêt doit en outre se faire de manière progressive, habituellement sur une durée de quelques semaines.
Un premier traitement antidépresseur est efficace dans 40 % des cas. En cas d’échec de deux, voire trois séquences thérapeutiques successives, les chances de succès avec un nouveau traitement chutent à 13 %.

*         La psychothérapie
La psychothérapie peut être recommandée, seule en cas de dépression légère ou en association avec les antidépresseurs dans les formes plus sévères. Elle peut améliorer les symptômes dépressifs et anxieux, diminuer la fréquence des récidives et même conduire à une rémission durable. La thérapie cognitivo-comportementale a notamment fait la preuve de son efficacité dans la prise en charge de la dépression.

*         L’électroconvulsivothérapie
L’électroconvulsivothérapie (électrochocs) a sa place dans le traitement de la dépression sévère, résistante aux antidépresseurs et à la psychothérapie. Elle peut aussi être utilisée en situation d’urgence (risque suicidaire très élevé). Son efficacité est très bonne, avec 80 à 90 % de taux de réponse. Concrètement, lors d’une séance d’électroconvulsivothérapie le patient est placé sous anesthésie générale et un courant électrique est appliqué au niveau de la zone frontale de son cerveau. Deux à trois séances sont réalisées par semaine. L’amélioration des symptômes est rapide, s’observant après quelques séances. Parfois un traitement d’entretien est nécessaire, avec environ une séance par semaine ou tous les 15 jours, voire de façon plus espacée.

*         Stimulation magnétique transcrânienne / Stimulation cérébrale profonde
La stimulation magnétique transcrânienne (TMS) est une alternative thérapeutique possible pour les personnes souffrant de dépression. L’utilisation de la stimulation cérébrale profonde est en revanche expérimentale et ne s’adresse qu’aux formes très résistantes de la maladie. En France, seule une dizaine de patients souffrant de dépression a été éligible à la stimulation cérébrale profonde. La technique consiste à implanter deux électrodes dans des régions cérébrales profondes (notamment dans le cortex cingulaire antérieur sous-génual ou le striatum ventral). Les modifications électriques de l’activité des neurones ciblés peuvent très significativement réduire la sévérité des symptômes, avec 50 à 60 % de réponse favorable.

A la recherche de nouveaux traitements et de marqueurs
Les chercheurs tentent de mieux comprendre la dépression et s’orientent pour cela dans des voies très variées : génétique, anatomique, inflammatoire.
Les observations qui découlent de ces travaux renseignent progressivement sur les mécanismes de la maladie et permettent d’envisager de nouvelles cibles thérapeutiques. Il apparaît ainsi par exemple que la dépression est associée à une élévation du taux de plusieurs facteurs d’inflammation, comme des cytokines proinflammatoires (interleukine 6, TNF alpha) et la protéine C réactive (CRP). L’implication des neurostéroïdes ou des endocannabinoïdes est aussi à l’étude. Des modifications des concentrations périphériques de certains neurostéroïdes (DHEA, alloprégnanolone…) ou d’endocannabinoïdes (anandamine, 2-AG) ont en effet été observées chez les patients déprimés.
Les chercheurs tentent par ailleurs d’identifier des marqueurs de réponse aux traitements qui permettraient de choisir d’emblée la bonne stratégie thérapeutique pour chaque patient. Des travaux ont par exemple montré qu’une hypoactivité du cortex insulaire (impliqué dans la réponse émotionnelle) est associée à de bonnes chances de rémission par thérapie cognitive mais à une faible réponse aux antidépresseurs. A l’inverse, si cette région corticale est hyperactive les antidépresseurs donneront de meilleurs résultats que la thérapie comportementale. Par ailleurs, des modifications de l’activité fonctionnelle au niveau du cortex orbitofrontal (qui joue un rôle majeur dans la régulation des émotions) semblent également associées à une bonne réponse à certains antidépresseurs. Enfin, l’activité des récepteurs à la sérotonine pourrait aussi constituer un marqueur de réponse aux traitements : les chances de rémission sont en effet plus élevées si ce récepteur fixe fortement la sérotonine au niveau cérébral.

L’identification de marqueurs de vulnérabilité permettant de prédire une rechute après un premier épisode dépressif est un autre champ de recherche. Pour les découvrir, les chercheurs mesurent les concentrations de différents marqueurs associés à la dépression et regardent comment elles évoluent en cas de rémission. Il a ainsi été montré que le taux de monoamine oxydase (impliquée dans la dégradation de la sérotonine, noradrénaline et de la dopamine) mesuré dans le cerveau est associé au risque de rechute : si ce taux reste élevé après une première phase de traitement, cela laisse présager d’une rechute. Le pronostic est meilleur si ce taux diminue. D’autres travaux récents montrent que les personnes qui ont des taux de cortisol (l’hormone du stress) élevés après traitement par antidépresseur sont plus à risque de récidive dans les 2 à 3 ans qui suivent que celles dont les taux sont plus faibles. Des travaux similaires sont actuellement menés sur certains récepteurs de la sérotonine.

 

DOCUMENT      inserm     LIEN  

Acouphènes

il y a un mois

Acouphènes
Dossier réalisé en collaboration avec Jean-Luc Puel (unité Inserm 1051/université de Montpellier, Institut des neurosciences de Montpellier) – avril 2016
Les acouphènes sont des bruits générés spontanément dans la voie auditive, sans qu’ils proviennent de l’extérieur. Ils sont le plus souvent liés à une perte auditive, même s’ils ont parfois une autre origine. Les chercheurs en clarifient peu à peu les mécanismes, pour tenter de proposer des solutions efficaces et durables aux patients les plus affectés.   

Les acouphènes sont des sifflements, des grésillements ou des bourdonnements d’oreille, quine proviennent pas du monde extérieur. Survenant dans une seule ou deux oreilles, ils peuvent être continus ou intermittents, transitoires ou persistants.  Un acouphène persistant peut durer plusieurs mois, voire plusieurs années.
Dans environ 80% des cas, les acouphènes sont associés à des troubles de l’audition. Dans les autres cas, bien qu’aucun déficit ne soit retrouvé à l’audiogramme, l’existence de lésions indétectables des fibres nerveuses auditives n’est pas à exclure.
Une perte auditive serait le plus souvent à l’origine des acouphènes. Face à une déficience de l’audition, le cerveau va se réorganiser pour s’adapter et tenter de pallier cette déficience. Hélas, cette réorganisation peut entrainer unfonctionnement aberrant du cortex auditif. Dans certains cas, des activités anormales générées le long de la voie auditive seront interprétées comme des sons par le système nerveux central. Le cerveau entendra alors donc des sons qui ne correspondent pas à une stimulation acoustique extérieure : c’est l’acouphène !
Un traumatisme induit par intervention chirurgicale, une inflammation liée à une otite moyenne, un médicament toxique pour le système auditif (médicament ototoxique) ou encore un problème vasculaire pouvant générer une gêne à proximité du nerf auditif peuvent également être des causes d’acouphènes.

Une pathologie fréquente
Environ 10% de la population adulte serait touchée par les acouphènes, avec des formes très invalidantes dans moins de 1% des cas.
Le risque d’acouphène augmente avec l’âge et la presbyacousie (perte auditive liée à l’âge), atteignant un pic autour de 65 ans. Ce risque augmente également avec l’exposition au bruit au cours de la vie et la survenue de traumatismes sonores. Une récente étude portant sur des discs jockeys de 26 ans, travaillant trois nuits par semaine depuis six ans, montre que 75% d’entre eux souffrent d’acouphènes.
Le retentissement des acouphènes est très variable d’un individu à l’autre, pouvant aller d’une simple gêne à un handicap sévère dans la vie quotidienne. Les acouphènes peuvent, notamment, entrainer des difficultés pour s’endormir ou pour se concentrer. Ils peuvent aussi provoquer des états d’anxiété et de dépression.

Une prise en charge possible
En cas d’acouphènes, il est utile de consulter pour rechercher une perte auditive. En cas de déficit avéré, une aide auditive permet le plus souvent d’améliorer l’audition et de détourner le patient de ses acouphènes.
Néanmoins, il n’existe pas de traitement des acouphènes à proprement parler. Dans les cas invalidants, des solutions peuvent toutefois être proposées pour en réduire le retentissement :
*         des masqueurs d’acouphènes peuvent être proposés. Il s’agit de prothèses qui émettent un bruit de fond, modéré mais permanent, qui masque les acouphènes et en limite la perception ;
*         des thérapies cognitivo-comportementales permettent aux patients d’apprendre à mieux vivre avec leurs acouphènes. Par exemple, la sophrologie peut les aider à supprimer la connotation négative du son et à relativiser son importance. Des thérapies comportementales proposées dans certains hôpitaux les aident à détourner leur attention de cette gêne ;
*         en cas d’anxiété et/ou de dépression, une prise en charge par un psychiatre ou par un psychologue, ainsi que des médicaments (anxiolytiques, antidépresseurs) peuvent être utiles.

A la recherche de solutions efficaces

Centre d'évaluation et de traitement de la douleur de l'hôpital Ambroise Paré
De nombreuses pistes sont explorées pour parvenir à mieux soulager les patients, ou même à supprimer durablement les acouphènes. Sans succès à ce jour… mais avec des espoirs réels !
Compte-tenu du lien entre troubles de l’audition et acouphènes, améliorer la prévention des pertes auditives et leur prise en charge permettrait de réduire l’incidence des acouphènes. L’exposition au bruit est une cause première de troubles de l’audition : des niveaux sonores élevés détruisent de façon irréversible des cellules de l’oreille interne (cellules ciliées) et altèrent les fibres nerveuses auditives. Ainsi, un traitement limitant la destruction des cellules ciliées, administré dans les heures qui suivent un traumatisme, pourrait atténuer le risque d’apparition des acouphènes. De tels traitements sont en cours de développement (voir notre dossier Troubles de l’audition / surdités).
Des thérapies sonores sont également en cours d’expérimentation. L’idée est d’induire une réorganisation du cortex auditif pour supprimer (ou au moins atténuer) les acouphènes. Concrètement, le patient est exposé à une musique ou à un bruit dépourvu de la fréquence sonore caractéristique de ses acouphènes. Il s’agit d’un traitement à long terme, conduit sur plusieurs mois.
Des essais de stimulation magnétique transcrânienne ont eu lieu il y a une dizaine d’années. Cette stratégie vise à utiliser les stimulations magnétiques pour  provoquer la réorganisation du cortex auditif et réduire les acouphènes. Les résultats obtenus jusqu’ici ne sont pas convaincants. Des stimulations électriques ont également été testées dans le même objectif. Nécessitant l’implantation d’électrodes dans le cerveau, cette technique a été abandonnée dans cette indication : les acouphènes revenaient chez les quelques patients implantés.
En 2011, des travaux ont suggéré l’intérêt de stimuler le nerf pneumogastrique (aussi appelé nerf vague), situé au niveau du cou. Chez le rat, le couplage de stimuli sonores spécifiques avec des stimulations brèves et répétées du nerf vague semble en effet inverser durablement les modifications neuronales liées à la perte auditive, et réduire les acouphènes. Un protocole clinique a débuté en Belgique, chez des patients souffrant depuis plus d’un an d’acouphènes sévères et d’une perte auditive permettant toutefois d’entendre les stimuli sonores.
Côté thérapies pharmacologiques, des essais cliniques sont en cours pour tester l’efficacité de molécules à action locale, capables de bloquer les acouphènes dans des modèles animaux. Il s’agit d’antagonistes des récepteurs NMDA sensibles au glutamate. Il semble en effet que les récepteurs NMDA situés sur les fibres nerveuses auditives jouent un rôle majeur dans l’apparition des acouphènes. Ils répondent à la présence excessive de glutamate, principal neurotransmetteur du système auditif, entrainant un surcroit d’excitabilité.
Un essai clinique de phase 3 (AM-101) est en cours dans plusieurs pays, dont la France où sept centres sont impliqués. Le protocole consiste à effectuer des injections répétées de la molécule AM-101 à travers le tympan, à l’aide d’une seringue. L’essai est réalisé chez des personnes ayant des acouphènes depuis moins de trois mois ou anciens de trois à six mois. L’objectif est d’évaluer les effets de la molécule AM-101 à court terme. Les premiers résultats sont attendus pour la fin 2016. Si la molécule se révèle efficace, une mini pompe rechargeable sera nécessaire pour administrer le médicament à volonté. Cette pompe sera implantée dans le rocher, derrière le tympan. Un prototype a été réalisé en partenariat entre l’Inserm (à Montpellier) et le CEA-Leti (Grenoble), mais son développement est loin d’être achevé.
Une autre société a lancé un essai de phase 1 utilisant un principe actif voisin de l’AM-101, la gacyclidine. La molécule est administrée sous la forme d’un gel, diffusé par un aérateur transtympanique (les fameux « yoyos » utilisés chez les enfants souffrant d’otites récidivantes).

 

 DOCUMENT      inserm     LIEN  

Le génie, une affaire de créativité

il y a un mois

SANTÉ
Le génie, une affaire de créativité


Par Elena Sender le 04.01.2015 à 14h00, mis à jour le 29.09.2016 à 12h26
Einstein, Mozart ou Marie Curie sont reconnus comme des génies. Ils ont développé un don, la créativité. Un critère bien plus déterminant que le fameux QI, jadis célébré. Quels sont les mécanismes du génie créatif ? Les gènes jouent-ils un rôle ?

Devant un feu de cheminée, un verre de bordeaux à la main, le réalisateur américain George Lucas (Star Wars, Indiana Jones) plonge dans ses souvenirs d’enfance. En face de lui, Nancy Andreasen, neuroscientifique et psychiatre de l’université de l’Iowa (États-Unis), lauréate de la National Medal of Science — la plus haute distinction scientifique du pays —prend des notes.

Dans ce même fauteuil, se sont déjà succédé la romancière Jane Smiley, prix Pulitzer 1992, l’astrophysicien John Mather, prix Nobel de physique 2006, le mathématicien Bill Thurston, médaille Fields 1982 et les biologistes moléculaires Carol Greider et Liz Blackburn, prix Nobel de médecine en 2009... "J’ai sélectionné des personnalités exceptionnelles qui ont réalisé des œuvres majeures dans leur domaine et ont reçu des prix prestigieux", explique la psychiatre qui les accueille dans sa propriété. Déjà quinze personnes d’exception ont ainsi été mises sur la sellette. L’objectif ? "Comprendre quels sont les facteurs familiaux et environnementaux qui ont permis à leur haut potentiel créatif d’émerger", explique la chercheuse. Toutes acceptent de se prêter à des tests cognitifs et à un examen d’imagerie cérébrale en IRM fonctionnelle "pour permettre de comparer leurs structures et fonctions cérébrales à celles d’un groupe témoin", poursuit l’experte qui a déjà "passé au crible" 30 écrivains talentueux américains dans les années 1990. Pour tenter de percer... le secret des génies.

Une capacité à ne pas confondre avec le QI
"Le génie est une capacité à produire quelque chose de hautement original", affirme Nancy Andreasen. "Les génies sont ceux qui “ font l’histoire” par leur contribution dans un domaine de créativité ou de leadership", complète Dean Keith Simonton, chercheur en psychologie à l’université de Californie (États-Unis). Le tout selon ce que le scientifique appelle une "définition historiométrique" ou "d’accomplissement". À ne — surtout ! — pas confondre avec l’autre définition du génie dite psychométrique caractérisant "un individu ayant un QI [quotient intellectuel] exceptionnel de 140 et plus" qui se mesure par un test mis au point selon l’échelle de mesure de l’intelligence créée par Alfred Binet et Théodore Simon en 1905. Car, toujours selon Dean Keith Simonton qui a étudié le QI de 282 personnalités, "on peut avoir un QI extrêmement haut et ne rien accomplir et, à l’inverse, réaliser des productions majeures avec un QI de 120-130".
Faire la liste des génies "historiométriques" n’est pas aisé puisque l’évaluation se fait sur des critères de production d’œuvres ou d’idées nouvelles. Si Einstein, Picasso, Victor Hugo, Mozart ou Léonard de Vinci font l’unanimité d’autres — comme Chagall, Ravel, Malraux, Marie Curie, Camille Claudel ou Napoléon — suscitent des débats aussi bien dans les discussions de comptoir que dans les colloques de spécialistes. Sans parler des contemporains comme l’astrophysicien Stephen Hawking, le réalisateur Steven Spielberg (E.T., Jurassic Park...), Steve Jobs (fondateur d’Apple), le prix Nobel de la paix Nelson Mandela ou le mathématicien Alexandre Grothendieck... entre autres. Gagnent-ils leur place au panthéon des génies ? "L’une des façons d’éviter les erreurs de jugement est certainement d’établir ce statut de manière posthume, une fois toutes les données réunies, estime prudemment Dean Keith Simonton. Notre évaluation historiométrique de Steve Jobs aurait été bien différente si elle était survenue en 1985, au moment où il s’est fait renvoyer d’Apple, avant qu’il ne revienne à la tête de l’entreprise en 1997 avec le succès que l’on sait !" Un critère met cependant tout le monde d’accord : toutes ces personnalités ont en commun d’avoir surdéveloppé une capacité, la créativité.

Pour comprendre ce qu’est un "haut potentiel créatif", direction le Laboratoire adaptations travail-individu (Lati) de la faculté de psychologie Paris-Descartes, à Boulogne-Billancourt (Hauts-de-Seine), au cinquième étage du bâtiment principal. C’est le repaire de Todd Lubart, son directeur, psychologue américain débarqué de New York en 1994 et spécialiste de la créativité depuis les années 1980. Son credo : la créativité existe en chacun de nous. "Il y a quatre niveaux de créativité — ou de “c” — que l’on évalue selon la portée de l’œuvre", explique-t-il.
Dix composantes associant cinq qualités cognitives
Le premier correspond à la capacité de reproduire quelque chose qui a déjà été inventé, comme cet élève qui applique un théorème de mathématique au cours d’un exercice par exemple. Le deuxième correspond à une créativité limitée au cercle personnel ou familial, comme cet oncle qui imagine sans relâche des recettes de cuisine ou cette grand-mère qui invente comme personne des histoires pour ses petits-enfants. Le troisième niveau concerne la créativité reconnue dans le milieu professionnel et dont on tire parti dans son travail comme le font les écrivains, les publicitaires, les ingénieurs, les chefs cuisiniers, etc. Enfin, au sommet, trône le quatrième niveau ou "big C", la super-créativité rayonnant au niveau international, engendrant une réorientation de la pensée dans un champ thématique donné et dont l’histoire se souviendra.

Les Big C — comme les appellent les spécialistes — partagent des traits psychologiques selon Nancy Andreasen : audace, esprit de révolte, individualisme, absence de présupposés, persévérance, concentration, simplicité, aptitude au jeu, curiosité intense, humilité et désintéressement. Todd Lubart a poussé plus loin l’analyse et en a déduit son modèle "multivarié". "Dix composantes sont nécessaires à la créativité, assure-t-il, associant ainsi cinq qualités cognitives — au premier rang desquelles la flexibilité mentale — et cinq traits de personnalité comme une grande ouverture d’esprit, et une tolérance à l’ambiguïté."
Un test, intitulé EPoC, mis au point par le Lati permet d’ailleurs de mesurer le potentiel créatif chez l’enfant et l’adolescent. Durant quatre ans, des psychologues du laboratoire ont travaillé aussi sur Creative Profiler, un programme informatique d’évaluation du potentiel de l’adulte à partir de la mesure des dix dimensions par des épreuves en ligne. Depuis un an, le programme tourne déjà dans quelques entreprises. Au final on obtient un profil en décagone (polygone à dix côtés) plus ou moins large et régulier. "Un pur génie atteindra des maximums dans toutes les dimensions, assure Benjamin Frantz, ingénieur en psychologie responsable du projet. Cela peut arriver statistiquement, mais c’est très rare."
Pourtant, réunir toutes ces composantes, à un niveau aussi élevé ne garantit pas le passage à la postérité ! "Ces compétences sont nécessaires mais non suffisantes ! poursuit Todd Lubart. Elles doivent rencontrer une époque, un environnement, un besoin de la société. Il faut la bonne personne au bon endroit au bon moment pour que le génie émerge." Et le psychologue de citer le philosophe Friedrich Nietzsche "hissé au rang de génie bien après sa mort, lorsque son œuvre est entrée en résonance avec les préoccupations d’une époque". José de Valverde, conseiller d’orientation-psychologue, travaille avec le chercheur sur des études de cas, comme ceux de Vincent Van Gogh ou Frédéric Chopin afin de tenter de répondre à ces questions : "Pourquoi le génie éclot-il à un moment donné ? Pourquoi existe-t-il des périodes plus fécondes que d’autres ?"
Françoys Gagné, professeur de psychologie canadien, a esquissé des éléments de réponse en établissant en 2003 une théorie qui fait aujourd’hui référence : un potentiel créatif deviendrait un talent lorsqu’il rencontre des catalyseurs internes (personnalité, motivation) et/ou externes (entourage, éducation, moyens). Ainsi, si Van Gogh a été si créatif durant sa période dite arlésienne, c’est, selon José de Valverde, grâce, entre autres, à la luminosité du Midi, l’espoir d’une meilleure santé et une relation renoué avec son frère Théo. De même, Chopin a été particulièrement prolifique lorsqu’il séjournait à Nohant avec sa compagne, la romancière George Sand. À en croire ces mode?les, les graines d’un potentiel créatif existeraient donc en chacun de nous, n’attendant qu’un "coup de pouce" pour croître au grand jour. Encourageant ! "Il faut encore étudier ce processus, pour mieux comprendre comment intervenir au niveau éducatif afin de favoriser l’éclosion des talents", martèle José de Valverde.
Que se passe-t-il au juste sous le crâne de ces esprits hautement créatifs ? Pour le savoir, il faut revenir à George Lucas — passionné d’anthropologie, d’histoire, de sociologie, de neurosciences, de technologie numérique, d’architecture, de design et de littérature — dont le cerveau a été observé à l’IRM tandis qu’il réalisait des tests cognitifs.

 

Une habileté à réaliser des connexions cérébrales
De quoi permettre à Nancy Andreasen d’établir un constat : "Tout comme les autres personnalités créatives, il montre des activations plus fortes des cortex associatifs, ces aires cérébrales qui permettent les associations d’idées." Outre-Atlantique, à l’université Drexel près de Philadelphie, John Kounios, directeur du Creativity Research lab et son confrère Marc Beeman, coauteurs de l’ouvrage Eurêka Factor (2014), étudient de près ce phénomène. "La créativité peut être pensée comme l’habileté à faire des connexions non évidentes", estime John Kounios.
Ainsi, l’écrivain Daniel Tammet, atteint du syndrome d’Asperger (une forme d’autisme) mais aussi génie des nombres et des langues, décrit "de l’intérieur" ce phénomène dans son ouvrage Embrasser le ciel immense. Le nombre 23, par exemple, lui évoque aussitôt 529 (soit 23 au carre?) et il reconnaît immédiatement 989 comme le dernier nombre divisible par 23 avant 1000. "Les nombres ne sont pas isolés, ils sont en interaction", écrit-il. Et d’avancer cette hypothèse : "Chez la plupart des individus, les tâches cognitives majeures (faire des calculs, comprendre le langage, analyser des informations sensorielles...) sont effectuées distinctement dans des régions cérébrales séparées. Une inhibition empêcherait les différentes parties du cerveau de se mêler du travail des autres."
Or, dans certains cas, cette inhibition serait moins forte, permettant des dialogues entre parties du cerveau peu habituées à communiquer entre elles. "Je pense que c’est dans cette communication désordonnée entre des régions cérébrales habituellement distinctes que l’on peut trouver un début d’explication aux capacités numériques savantes, dont je fais moi-même l’expérience", note-t-il. John Kounios penche aussi pour cette théorie de la désinhibition cognitive. "La créativité viendrait d’une diminution du contrôle exercé par le lobe frontal sur le reste du cerveau. Les pensées des personnes créatives seraient donc un peu moins disciplinées." Même sous l’IRM, "l’éclair de génie" — comme on appelle cet instant où l’idée géniale fuse — reste mystérieux. Ainsi, que s’est-il réellement passé dans le cerveau de Descartes au cours de la nuit du 10 novembre 1619 où lui vint l’intuition d’une nouvelle méthode ? Et dans celui de Camille Saint-Saëns cette nuit du 21 avril 1915 où il rêva du final de sa symphonie en ut mineur avant de le retranscrire à son réveil ? "L’illumination est cette soudaine conscience d’une nouvelle idée ou perspective", explique John Kounios.

L’aboutissement d’un long processus inconscient
Certes, il est toujours possible de parvenir à produire de telles idées délibérément et méthodiquement, mais les cas sont rares. "La révélation est souvent l’aboutissement d’un long processus inconscient qui émerge soudainement alors que la pensée analytique est délibérée et consciente, caractérisée par une réflexion par étape", détaille John Kounios. Cette illumination (insight) est un moment de grande exaltation "accompagnée d’une flambée d’émotions positives, qui se différencie de la satisfaction calme qu’apporte la pensée analytique". Et l’acteur majeur en serait plu- tôt l’hémisphère cérébral droit, impliqué dans les associations d’idées, alors que le gauche jouerait davantage un rôle dans la pensée analytique comme l’ont montré des études menées ces quinze dernières années. De plus, des chercheurs ont pu déterminer par électroencéphalographie qu’une inhibition fugace des sens se produit juste avant que "l’ampoule ne s’allume","comme un phénomène inconscient de retrait en soi pour faciliter l’émergence de la solution", conclut John Kounios.
Bonne nouvelle : ces fulgurances pourraient être favorisées, à en croire le chercheur américain. À commencer par toutes les activités qui élargissent le champ de l’attention et évite la concentration. "Une émotion positive, qui élargit l’attention, est bénéfique pour la créativité alors que les pensées anxieuses, en rétrécissant le champ attentionnel, sont délétères", note John Kounios. Selon une étude (Jarosz, 2012) une — petite ! — quantité d’alcool pourrait aussi favoriser l’émergence des idées par la désinhibition qu’elle entraîne. En revanche, contrairement à une idée reçue, "il est peu probable que des drogues comme la cocaïne rendent quelqu’un créatif, poursuit le chercheur. Les psychostimulants forts concentrent en effet le mental sur les paramètres les plus évidents d’une situation, or c’est une attention étendue qui mène à la créativité".
D’autres scientifiques ont tenté d’intervenir de manière plus directe. Deux études récentes ont ainsi été menées (Chi&Snyder 2011, 2012) en stimulation transcranienne à courant continu : le cortex fronto-temporal droit de plusieurs sujets a été stimulé alors que leur cortex fronto-temporal gauche était inhibé. Et ça a marché. L’expérience a augmenté de manière significative le score de résolution de deux problèmes nécessitant une solution créative. "Mais cela soulève autant de questions que cela en résout, commente John Kounios. Est-ce l’activation à droite ou l’inhibition à gauche, ou les deux, qui produit l’effet ? A-t-on augmenté la créativité ou la perspicacité ?" Le spécialiste préfère s’en tenir à des conseils simples : "Lorsqu’on se sent près de l’“eurêka“, il faut induire une humeur positive et élargir son attention par de multiples moyens pour ne pas rester centré sur le problème. C’est le meilleur moyen de favoriser l’éclair."
Dans le laboratoire Lati, les moyens à mettre en œuvre pour augmenter la créativité agitent les méninges. C’est d’ailleurs l’objet du projet Creativeness mené par les psychologues Julie Collange et Jérôme Guegan, avec deux groupes d’étudiants de l’université Paris-Descartes et des Arts et Métiers. Leur idée ? Abolir la traditionnelle réunion de brainstorming (agitation d’idées) autour d’une table pratiquée dans toutes les entreprises. Pour ce faire, chaque étudiant participant est donc prié de se faire remplacer par son avatar informatique — anonyme — lors de réunions virtuelles. Les psychologues réalisent alors un test de "pensée divergente" avant de comptabiliser le nombre et l’originalité des propositions faites par chacun. "Le nombre d’idées augmente légèrement par rapport à une réunion classique car l’anonymat contrecarre l’autocensure et la peur du jugement", révèle Julie Collange. La suite de l’expérience est encore plus intéressante. Lors d’une autre réunion virtuelle, les étudiants sont priés cette fois de se choisir un avatar qui, selon eux, symbolise le mieux "le génie".
Le savant fou, mythe ou réalité ?
Les avatars choisis par les "gadzarts" (étudiants des Arts et Métiers) portent presque tous blouse blanche et crinière d’Einstein tandis que ceux des étudiants en psychologie s’affublent de plumes et d’habits colorés. Et la magie opère ! "Le nombre d’idées obtenues par personne double quasiment ! Se mettre dans la peau d’un génie débride la créativité", relate Jérôme Guegan. L’équipe cherche à présent à savoir si les caractéristiques du lieu virtuel ont une incidence. Une île paradisiaque ou les flammes de l’enfer stimuleraient-elles davantage notre potentiel créatif qu’une salle sans âme ?
Reste que la créativité débridée a son revers. "Virgina Woolf s’est suicidée, de même que Vincent Van Gogh, Newton souffrait de paranoïa et Galilée, dépressif, était souvent cloué au lit", expose Dean Keith Simonton, qui a analysé le lien entre folie et génie. "Mon étude, portant sur 15 génies créatifs comparés à 15 témoins, montre un lien entre créativité et trouble mental, rapporte Nancy Andreasen qui avait déjà établi ce rapprochement dans son étude précédente sur les écrivains. Les sujets créatifs et leurs proches ont un taux plus élevé de troubles mentaux incluant les dépressions, l’anxiété, les troubles paniques, les troubles bipolaires et l’alcoolisme. Ils ont également une probabilité plus forte que les autres d’avoir dans leur entourage un ou plusieurs proches atteints de schizophrénie."
Dean Keith Simonton évoque un paradoxe : dans la population générale, les créatifs semblent en meilleure santé mentale que les non-créatifs. Mais parmi les créatifs, les plus inventifs semblent mentalement plus fragiles. Sur cette question, deux camps s’affrontent. Le savant fou est-il un mythe ? Nancy Andreasen compte bien apporter une réponse à cette polémique. Le fauteuil de son salon n’a pas fini de livrer ses secrets.

 

 DOCUMENT        sciencesetavenir.fr      LIEN

Neurofibromatose comment la protéine Nf1 impacte les processus de mémorisation

il y a un mois

 
Neurofibromatose : comment la protéine Nf1 impacte les processus de mémorisation


Des chercheurs du Centre de biophysique moléculaire d’Orléans (CNRS) en collaboration avec l’Institut de génomique fonctionnelle (CNRS/INSERM/Université de Montpellier) ont montré dans une étude publiée dans PNAS que le récepteur 5-HT6 de la sérotonine pourrait représenter une cible thérapeutique prometteuse pour le traitement des déficits cognitifs observés chez des patients atteints de la neurofibromatose.

La Neurofibromatose de type 1 est une pathologie d’origine génétique touchant 1 personne sur 3000.  Elle se caractérise notamment par des taches pigmentées sur la peau, des tumeurs au niveau de la gaine des nerfs localisées à la surface de la peau (neurofibromes). Les tumeurs sont en partie liées à un dysfonctionnement de la protéine Nf1, présente en abondance dans le système nerveux où elle est telle un garde-fou dans la prolifération cellulaire. La maladie se caractérise aussi par l’apparition de troubles d’apprentissage et de mémorisation. Pour comprendre l’implication de la protéine dans ces troubles cognitifs,  il est intéressant d’observer ses différentes interactions  avec les éléments du SNC. L’équipe BCT* du Centre de Biophysique Moléculaire (CBM) d’Orléans travaille notamment sur la recherche de partenaires de Nf1. L’un d’eux, identifié en collaboration avec une équipe de l’Institut de Génomique Fonctionnelle (IGF) de Montpellier**, est le récepteur 5-HT6. Couplé aux protéines G, exclusivement exprimé dans le SNC, il est activé par la 5-hydroxytryptamine, communément appelée sérotonine. “Nous avons caractérisé les domaines du récepteur et de Nf1 impliqués dans l’interaction, explique Séverine Morisset Lopez, chargée de recherche au CBM. “Puis, grâce aux données de la littérature, nous avons répertorié des mutations génétiques localisées dans le domaine de Nf1 impliqué dans son interaction avec le récepteur et présentes chez des patients atteints de la maladie. Dès lors, nous avons créé différentes protéines mutées et montré que certaines mutations affectaient l’interaction de Nf1 avec le récepteur 5-HT6dans des neurones de souris et des cellules humaines ». Ce n’est pas tout, dans un modèle animal de la maladie, la production d’AMPc,  - un messager impliqué dans les processus de mémorisation et d’apprentissage - sous le contrôle du récepteur 5-HT6, est aussi affecté. Ceci pourrait contribuer à l’apparition des troubles de la mémoire observés chez ces animaux. Restaurer une activité normale du récepteur grâce à des composés agissant sur celui-ci pourrait corriger ces troubles. Ces études offrent de nouvelles perspectives non seulement pour la compréhension des mécanismes moléculaires mis en jeu dans la maladie, mais également pour le traitement des troubles cognitifs observés chez les malades.
 
*BCT : Biologie Cellulaire, Cibles moléculaires et Thérapies innovantes dirigée par le Pr C Pichon et le Dr H Bénédetti. 
** Equipe Neuroprotéomique et signalisation des maladies neurologiques et psychiatriques dirigée par le Dr P Marin

 


En savoir plus
* Wissem Deraredj Nadim, Séverine Chaumont-Dubel, Fahima Madouri, Laetitia Cobret, Marie-Ludivine De Tauzia, Pawel Zajdel, Hélène Bénédetti, Philippe Marin & Séverine Morisset-Lopez Physical interaction between neurofibromin andserotonin 5-HT6 receptor promotes receptor constitutive activity PNAS 2 septembre 2016 doi: 10.1073/pnas.1600914113  

 Contact chercheur
* Séverine Morisset-Lopez Centre de biophysique moléculaire – Orléans CNRS - CS 80054 Rue Charles Sadron 45071 ORLEANS CEDEX 2 T 02 38 25 76 05  
Mise en ligne le 18 décembre 2016

 

 DOCUMENT           cnrs       LIEN

Les préférences auditives des nouveau-nés

il y a un mois

 
Les préférences auditives des nouveau-nés sont influencées par l’expérience émotionnelle associée aux sons perçus par leur mère au cours de la gestation


L’expérience sensorielle prénatale, en particulier les expériences auditives, sont une source de mémoires pour les fœtus. Ainsi, les nouveau-nés de différentes espèces, y compris l’Homme, distinguent la voix de leur mère de celle d’autres individus. Des chercheurs des laboratoires Physiologie, environnement et génétique pour l'animal et les systèmes d'élevage et Ethologie animale et humaine, apportent pour la première fois une preuve expérimentale chez des porcelets que la contiguïté temporelle entre des stimuli sensoriels et des réactions émotionnelles maternelles peut être une source d’apprentissage associatif pour le fœtus. Cette étude a été publiée le 18 novembre dans la revue Scientific Reports.

Les chercheurs ont testé si l’association de sons (voix humaine lisant un texte) avec une expérience émotionnelle de valence positive ou négative chez des truies gestantes avait un impact sur la réaction des porcelets à ces mêmes sons juste après la naissance et dans les semaines suivantes.
Trente truies et leurs portées ont été étudiées : les truies recevaient quotidiennement et alternativement un traitement positif et un traitement négatif pendant leur dernier mois de gestation, chacun étant associé avec une voix humaine particulière. Après la naissance des porcelets, ceux-ci ont été soumis à des tests de séparation auxquels étaient associés la diffusion d’une ou des deux voix. Les résultats montrent bien que cette expérience de la mère gestante a une influence sur les réactions postnatales des porcelets à ces sons : 1) dès le premier test à l’âge de deux jours (mais également encore à l'âge de trois semaines), les porcelets pour qui ces voix sont “familières” sont moins stressés par la séparation que les porcelets témoins qui n'ont pas été exposés à ces voix avant leur naissance : il y a donc bien eu audition et mémorisation in utero ; 2) cet effet est généralisé à toute voix humaine puisqu’ils sont aussi davantage “rassurés” en entendant une voix étrangère ; 3) et surtout, ils sont plus stressés en entendant la voix humaine associée par la mère à une émotion négative que lorsqu'ils sont isolés avec la voix humaine associée par la mère à une émotion positive ou en absence de voix. Cette étude apporte la première démonstration d’un apprentissage in utero d’une association entre un stimulus sensoriel et l’état émotionnel de la mère. Ces résultats ouvrent tout un pan de recherche qui va bien au-delà de l’espèce porcine car ils invitent à reconsidérer l’impact des expériences prénatales à travers le filtre des ressentis maternels.

 

 DOCUMENT           cnrs       LIEN

La jeune géante qui s'est fait une place au soleil

il y a 2 mois


Paris, 20 juin 2016

La jeune géante qui s'est fait une place au soleil


Depuis 20 ans, les exoplanètes qu'on nomme « Jupiters chauds » défient les astronomes. Ces planètes géantes orbitent 100 fois plus près de leur étoile que Jupiter autour du Soleil, et sont donc réchauffées par cette proximité. Mais comment et quand dans leur histoire migrent-elles si près de leur étoile ? Une équipe internationale d'astronomes vient d'annoncer la découverte d'un très jeune Jupiter chaud au voisinage immédiat d'un soleil d'à peine 2 millions d'années – l'équivalent stellaire d'un nourrisson d'une semaine. Cette toute première preuve que les Jupiters chauds apparaissent dès les origines constitue un progrès majeur dans notre compréhension de la formation et de l'évolution des systèmes planétaires. Les travaux, dirigés par des chercheurs de l'Institut de recherche en astrophysique et planétologie (IRAP, CNRS/Université Toulouse III – Paul Sabatier)1, en collaboration, entre autres2, avec des collègues de l'Institut de planétologie et d'astrophysique de Grenoble (CNRS/Université Grenoble Alpes)3, sont publiés le 20 juin 2016 dans la revue Nature.
C'est en scrutant une étoile d'à peine 2 millions d'années, baptisée V830 Tau, qu'une équipe internationale d'astronomes a découvert le plus jeune Jupiter chaud. Après un mois et demi d'observations au cœur de la pouponnière stellaire du Taureau, à 430 années-lumière de la Terre, l'équipe a détecté une variation régulière de la vitesse de l'étoile, révélant la présence d'une planète presque aussi massive que Jupiter, sur une orbite 20 fois plus resserrée que celle de la Terre autour du Soleil. Cette découverte prouve pour la première fois que les Jupiters chauds apparaissent très tôt lors de la phase de formation des systèmes planétaires, et ont donc un impact majeur sur l'architecture de ces derniers. 

Dans le système solaire, les petites planètes rocheuses comme la Terre orbitent près du Soleil alors que les géantes gazeuses comme Jupiter et Saturne patrouillent bien plus loin. D'où l'étonnement de la communauté quand les premières exoplanètes détectées se sont révélées des géantes côtoyant leur étoile. Les travaux théoriques nous apprennent que ces planètes ne peuvent se former que dans les confins glacés du disque protoplanétaire donnant naissance à l'étoile centrale et à son cortège de planètes. Certaines d'entre elles migrent vers l'étoile sans y tomber, devenant dès lors des Jupiters chauds. 

Les modèles théoriques prédisent une migration soit dans l'enfance des géantes gazeuses, alors qu'elles se nourrissent encore au sein du disque primordial, soit bien plus tard, lorsque les nombreuses planètes formées interagissent et propulsent certaines d'entre elles au voisinage immédiat de l'étoile. Parmi les Jupiters chauds connus, certains possèdent justement une orbite inclinée, voire inversée, suggérant qu'ils ont été précipités vers l'étoile par d'ombrageuses voisines. Cette découverte d'un Jupiter chaud très jeune confirme donc que la migration précoce au sein du disque est bien, elle aussi, opérationnelle dans le cas des planètes géantes.

Détecter des planètes autour d'étoiles très jeunes s'avère un vrai défi observationnel, car ces étoiles se révèlent être des monstres en comparaison de notre Soleil : leur intense activité magnétique perturbe en effet la lumière émise par l'étoile d'une façon bien plus marquée que ne peut le faire une éventuelle planète géante, même en orbite rapprochée. L'une des prouesses de l'équipe a été de séparer le signal dû à l'activité de l'étoile de celui engendré par la planète.

Pour cette découverte, l'équipe a utilisé les spectropolarimètres4 jumeaux ESPaDOnS et Narval, conçus et construits à l'IRAP. ESPaDOnS est installé au télescope Canada-France-Hawaï (TCFH), au sommet du Maunakea, un volcan endormi de la grande île de l'archipel d'Hawaï. Narval est monté quant à lui au télescope Bernard Lyot (TBL - OMP) au sommet du Pic du Midi. L'utilisation combinée de ces deux télescopes et du télescope Gemini d'Hawaï s'est avérée essentielle pour obtenir la continuité requise dans le suivi de V830 Tau. Avec SPIRou et SPIP, les spectropolarimètres infrarouge de nouvelle génération construits à l'IRAP pour le TCFH et le TBL, et dont la mise en service est prévue en 2017 et 2019, les performances seront largement améliorées, ce qui nous permettra d'étudier avec une sensibilité encore accrue la formation des nouveaux mondes. 

Des animations sont disponibles (crédit : Jean-François Donati) :
- l'étoile en formation V830 Tau et son champ magnétique ;
- les distorsions du spectre lumineux induites par l'activité de l'étoile (flèche bleue) et par sa planète (flèche verte). La flèche rouge montre les deux effets combinés. L'effet est amplifié d'un facteur 20.

Télécharger le communiqué de presse : 

Notes :
1 Ce laboratoire fait partie de l'Observatoire Midi-Pyrénées (OMP).
2 Les autres organismes ayant contribué à ces travaux sont : CFHT corporation, l'Université de York (Toronto, Canada), l'ESO, l'Université fédérale du Minas Gerais (Brésil), l'Academia sinica (Taïwan), l'Université de Montréal (Canada) et l'Université de St Andrews (Royaume-Uni).
3 Ce laboratoire fait partie de l'Observatoire des sciences de l'Univers de Grenoble.
4 En astronomie, un spectropolarimètre sert à mesurer le champ magnétique des étoiles.
Références :
A hot Jupiter orbiting a 2-million-year-old solar-mass T Tauri star, JF Donati, C Moutou, L Malo, C Baruteau, L Yu, E Hébrard, G Hussain, S Alencar, F Ménard, J Bouvier, P Petit, M Takami, R Doyon, A Collier Cameron. Nature, 20 juin 2016. Consulter le site web
Contacts :
Chercheur CNRS l Jean-François Donati l T +33 (0)5 61 33 29 17 l jean-francois.donati@irap.omp.eu 
Presse CNRS l Véronique Etienne l T +33 (0)1 44 96 51 37 l veronique.etienne@cnrs-dir.fr

 

 DOCUMENT       cnrs        LIEN

Comment les cellules s’adaptent-elles à une carence en sucre

il y a 2 mois

 
Comment les cellules s’adaptent-elles à une carence en sucre ?
 
L’équipe de Sébastien Léon à l’Institut Jacques Monod dévoile un nouveau mécanisme qui contrôle chez la levure la dégradation des transporteurs de sucre localisés à la surface des cellules. Ce mécanisme fait intervenir Csr2, une protéine de la famille des arrestines qui est régulée à plusieurs niveaux par la disponibilité en glucose. Ce travail, réalisé en collaboration avec le laboratoire de Libuše Váchová et Zdena Palková à l'Université Charles à Prague, a été publié le 3 mai 2017 dans la revue Journal of Cell Biology.
 
Les cellules sont délimitées par une membrane, appelée membrane plasmique, dans laquelle sont insérées des protéines transporteurs qui permettent aux différents nutriments de pénétrer à l’intérieur de la cellule. En fonction de l’évolution des conditions nutritionnelles de l’environnement, certains de ces transporteurs deviennent inutiles. Ils sont donc dégradés par la cellule grâce à un mécanisme appelé endocytose.
 
Le mécanisme d’endocytose est très bien caractérisé chez la levure de boulanger Saccharomyces cerevisiae. Comme les cellules humaines, la levure possède à sa surface des transporteurs dont elle doit réguler l’abondance en utilisant les mêmes mécanismes que les cellules humaines. La levure utilise un sucre, le glucose, pour produire l’énergie nécessaire à sa croissance.
 
Les chercheurs ont caractérisé un nouveau mécanisme qui permet la dégradation des transporteurs de glucose lorsque les levures sont soumises à une carence dans ce sucre. Ce mécanisme dépend de Csr2, une protéine de la famille des arrestines. Chez l’Homme, les arrestines sont d’importants régulateurs du métabolisme et certaines d’entre elles sont des suppresseurs de tumeur, c’est à dire que leur absence peut causer des cancers. Il est donc très important de comprendre le rôle de ces arrestines et leur régulation par la physiologie cellulaire.
 
Les chercheurs ont découvert que Csr2 est fabriquée et devient active uniquement en absence de glucose. Son activité est régulée par de nombreuses modifications post-traductionnelles. Cette régulation complexe fait intervenir plusieurs acteurs (voies de signalisation PKA, AMPK) dont l’activité est elle même régulée par la disponibilité en glucose. Ainsi, cette étude montre que la régulation d’une arrestine par la signalisation cellulaire contribue à l’homéostasie des transporteurs et donc à l’adaptation des cellules à leur environnement.

 

Figure : Schéma de la régulation de l’endocytose des transporteurs de glucose lors d’une carence en glucose chez la levure de boulanger. L’absence de glucose dans le milieu extérieur est ressentie et transmise à l’intérieur de la cellule grâce à la signalisation cellulaire. Ce signal va alors induire une réponse spécifique. Ici, sont représentées l’induction et l’activation de l’arrestine Csr2. Cela conduit à l’internalisation des transporteurs de glucose (initialement localisés au niveau de la membrane plasmique) et leur dégradation dans le lysosome de la cellule.
© Sébastien Léon

 

En savoir plus
* Multilevel regulation of an α-arrestin by glucose depletion controls hexose transporter endocytosis. Hovsepian J, Defenouillère Q, Albanèse V, Váchová L, Garcia C, Palková Z, Léon S. J Cell Biol. 2017 May 3. pii: jcb.201610094. doi: 10.1083/jcb.201610094. 

 Contact chercheur
* Sébastien Léon Institut Jacques Monod CNRS UMR7592 – Université Paris-Diderot 15 rue Hélène Brion    01 57 27 80 57  
* Junie Hovsepian Institut Jacques Monod CNRS UMR7592 – Université Paris-Diderot 15 rue Hélène Brion   01 57 27 80 57  

 

DOCUMENT           cnrs       LIEN
          
 

L’autophagie au rythme des protéines Hox

il y a 2 mois

L’autophagie au rythme des protéines Hox
 
Architectes du développement embryonnaire, les gènes Hox sont bien connus pour contrôler la mise en place, dans l’espace, d’avant en arrière, des structures du corps. L’équipe de Yacine Graba de l’IBDM (CNRS – Université Aix-Marseille) vient de leur découvrir un nouveau rôle : régulateur dans le temps de l’autophagie. Ces travaux ont été publiés dans Developmental Cell.
 
Les gènes Hox, classés en groupe de paralogie, s’expriment différemment le long de l’axe antéropostérieur des animaux bilatériens. Yacine Graba et son équipe, en collaboration avec le groupe de Miklos Sass (Université Lorand Eotvos, Budapest) observent un phénomène surprenant : dans le corps gras de la drosophile, cette expression différentielle n’est pas la règle, et la plupart des des gènes Hox s’expriment dans l’ensemble du tissu, aussi bien antérieurement que postérieurement. D’autre part, les protéines Hox disparaissent dès que la larve se prépare à sa métamorphose. C’est à partir de cette étonnante observation que les scientifiques marseillais ont mis en évidence, pour la première fois, un lien entre l’expression des gènes Hox et l’autophagie.

Contrairement à ce qui se passe dans les autres tissus de la larve, les protéines Hox du corps gras ne délivrent pas d’information de position. Leur fonction n’est pas non plus spécifique à chacun de leur groupe de paralogie. Dans le corps gras, elles inhibent, de manière générique  l’autophagie développementale, nécessaire à la métamorphose. L’autophagie ne débutera qu’à la disparition des protéines Hox, qui rythment ainsi cet  événement central dans le remodelage tissulaire au cours du développement.

De plus, la production de protéines Hox est influencée par des signaux développementaux, comme l’ecdysone ou « hormone de mue ». Mais aussi par des situations de carences nutritionnelles dont les signaux sont relayés par la voie  Insuline/dTOR.  Cet arrêt de production, et par là même l’initiation de l’autophagie, résultent de la modification de la composition du complexe de remodelage de la chromatine Brahma qui maintient l’expression des gènes Hox.

Au-delà d’élargir la compréhension de la fonction des protéines Hox, cette étude offre un nouvel éclairage sur la régulation de l’autophagie. Très étudié depuis ces cinq dernières années, ce processus qui est d’ailleurs conservé au cours de l’évolution chez tous les eucaryotes, est associé à de nombreuses pathologies humaines, comme des maladies neurodégénératives, des cancers, des myopathies ou le diabète. Cette découverte permettra sans doute d’apporter de nouvelles hypothèses à la recherche biomédicale.

 

DOCUMENT       cnrs        LIEN

L’activité neuronale prédit la gravité des TOC

il y a 2 mois

L’activité neuronale prédit la gravité des TOC

30 mai 2011
Les troubles obsessionnels compulsifs (TOC) sont caractérisés par des obsessions ou des compulsions qui reviennent sans arrêt et peuvent devenir handicapantes. En 2008, une étude a montré que la stimulation cérébrale profonde permettait d’améliorer nettement les symptômes des patients qui ne répondent pas aux traitements classiques. Cette technique a permis plus récemment à l’équipe du Dr Luc Mallet, Centre de recherche de l’Institut du cerveau et de la moelle (ICM) à la Pitié-Salpêtrière, d’enregistrer l’activité cérébrale dans des zones bien précises du cerveau. La gravité de la maladie et la réponse à la stimulation semblent liées à certaines caractéristiques de l’activité neuronale des patients.
Articles associés

*         Un essai clinique très encourageant pour les patients atteints de TOC
Informations complémentaires
Lire l’article original
Les TOC, véritable handicap social


© Fotolia
Vérifier cent fois que le gaz est éteint, que la porte est fermée à clé, se laver les mains vingt fois par jour, marcher uniquement sur les bandes blanches aux passages cloutés, toutes ces obsessions ou ces compulsions sont en fait à l’origine d’une maladie psychiatrique plus connue sous le nom de troubles obsessionnels compulsifs. La maladie touche environ 2 % de la population le plus souvent avant 30 ans. Elle peut vite devenir très handicapante, privant même un certain nombre de patients d’une vie sociale normale quand l'obsession prend le pas sur toutes les autres priorités et se met à rythmer la vie de l’individu.

La stimulation cérébrale profonde au secours des malades
Les causes de ces troubles sont mal connues mais les chercheurs suspectent deux dysfonctionnements. L’un au niveau de certains messagers chimiques dans le cerveau, notamment la sérotonine et l’autre au niveau des circuits reliant les zones superficielles et profondes du cerveau. Le traitement de référence de la maladie repose sur une thérapie comportementale associée à un traitement antidépresseur (inhibiteur de recapture de la sérotonine). Cependant, un tiers des patients ne répondent pas à ce traitement. Or, en 2002, des chercheurs qui travaillent sur la stimulation cérébrale profonde (voir encadré) chez des patients parkinsoniens, découvrent fortuitement que cette expérience réduit les symptômes obsessionnels de certains de ces patients atteints de TOC. Un essai clinique est alors mis en place dans 10 CHU en France et coordonné par le Dr Luc Mallet à la Pitié-Salpêtrière pour étudier le bénéfice de la stimulation cérébrale dans les TOC. Il inclut 16 patients en échec thérapeutique. Le bénéfice est spectaculaire. Après 3 mois de stimulation, sept patients sur dix ont une nette amélioration de leurs symptômes et six d’entre eux ne ressentent plus qu’une gêne modérée et retrouvent une vie satisfaisante (vie de famille, nouveaux liens sociaux, activité professionnelle).

Activité neuronale et gravité des symptômes
Mais au-delà de son bénéfice thérapeutique, cette technique permet à l’équipe de Luc Mallet d’aller plus loin dans la connaissance de la maladie. L’implantation des électrodes permet non seulement de stimuler des neurones mais également d’enregistrer leur activité. Les scientifiques ont ainsi pu étudier l’activité d’une zone du cerveau (noyau sous-thalamique) chez 12 patients atteints de TOC sévères et résistants aux traitements. Or, ces enregistrements montrent des profils d’activité neuronale anormaux dont les caractéristiques sont liées à la gravité des symptômes.En outre, certains de ces dysfonctionnements semblent prédictifs du bénéfice de la stimulation cérébrale. "Ces résultats confirment l’intérêt de cette technique pour traiter les troubles réfractaires aux thérapeutiques usuelles et marquent une première étape vers l’identification de marqueurs biologiques dans cette forme sévère de la maladie", se réjouit Luc Mallet.

La stimulation cérébrale profonde en bref
La stimulation cérébrale profonde consiste à émettre un faible courant électrique dans une zone précise du cerveau pour interférer avec un signal neuronal déficient. Cette technique utilisée depuis la fin des années 80 permet de traiter différentes maladies neurologiques ou psychiatriques comme la maladie de Parkinson, des mouvements involontaires ou encore les troubles obsessionnels compulsifs (TOC). Pour cela, une ou deux électrodes sont implantées dans un noyau cible au cœur du cerveau, par exemple le noyau sous-thalamique pour la maladie de Parkinson et les TOC. Chaque électrode est reliée à un stimulateur implanté sous la peau au niveau de l’abdomen ou de la clavicule qui émet le signal électrique. Celui-ci est d’intensité variable en fonction des résultats attendus.

Source
"Basal ganglia dysfunction in OCD: subthalamic neuronal activity correlates with symptoms severity and predicts high-frequency stimulation efficacy"
Welter et coll. Translational Psychiatry (2011) 1, e5 (groupe Nature)

 

   DOCUMENT   inserm.fr    LIEN

Dans 10 ou 30 secondes  Un réseau neuronal impliqué dans la mémoire temporelle

il y a 2 mois

Dans 10 ou 30 secondes ? Un réseau neuronal impliqué dans la mémoire temporelle  
 
L’appariement temporel d’événements conditionne leur lien mnésique, ce qui permet d’agir en conséquence au bon moment. L’équipe de Valérie Doyère à l’Institut des neurosciences de Paris-Saclay, en collaboration avec des chercheurs de la New York University (USA), révèle l’implication d’un réseau neuronal dans la mise en place d’une plasticité synaptique sous-tendant la mémoire de l’intervalle et l’adaptation de l’attente qui en résulte. Cette étude a été publiée le 9 janvier 2017 dans la revue Nature Communications.

Le temps ou l’intervalle entre deux événements est un élément crucial dans notre vie de tous les jours, même si nous n’en sommes pas conscients. Nous le mémorisons en général très rapidement, en particulier s’il implique un événement aversif ou dangereux. Un exemple facile que nous connaissons tous est l’estimation temporelle que nous faisons lorsqu’un éclair apparaît dans le ciel et que nous attendons le coup de tonnerre qui va suivre. De même, dans des situations plus dramatiques, une estimation temporelle est mémorisée en temps de guerre entre la perception de la sirène d’alerte et celle du bruit de moteur des avions à l’attaque. Même s’ils sont stressants ou douloureux, la prédictibilité de tels événements donne la possibilité de mettre en place des comportements adaptés pour en minimiser l’impact négatif ou même les éviter. Le moment attendu de leur arrivée est un élément crucial de cette prédictibilité, car il permet d’agir au bon moment, et non trop tard ou trop tôt. Cet intervalle de temps entre un signal annonciateur et l’événement négatif doit donc être mémorisé pour qu’à l’occasion suivante, on puisse juger du temps en cours et mettre en œuvre le comportement adapté au moment approprié. En fait, l’appariement temporel d’événements conditionne leur lien mnésique et la mémoire permet de suivre le temps qui passe et prédire les événements futurs. Les mécanismes cérébraux qui sous-tendent cette mémoire de la durée ou de l’intervalle et les processus d’attente temporelle restent peu connus et la majorité des études chez l’Homme ne donne pas accès à une analyse à haute résolution temporelle de réseaux neuronaux profonds. 
Dans cette étude, les chercheurs se sont intéressés au rôle du réseau neuronal que forment le striatum dorsomédian, structure connue pour son implication dans le jugement temporel, et l’amygdale basolatérale, structure essentielle dans le traitement de l’aspect émotionnel des événements. Ils ont utilisé un protocole de conditionnement Pavlovien aversif chez le rat, dans lequel un son prédit l’arrivée d’un léger choc électrique sur les pattes 30 secondes après le début du son, de telle sorte qu’il se forme un comportement d’attente maximal du choc vers les 30 secondes. 
Au travers de l’analyse de la synchronisation des oscillations d’activité neuronale, un changement dynamique au sein de ce réseau a été mis en évidence, avec une synchronisation maximale à l’approche du moment d’arrivée du choc, similaire au comportement d’anticipation. De plus, l’utilisation d’outils pharmacologiques locaux, d’électrophysiologie in vivo et d’imagerie cellulaire a permis de révéler la mise en jeu d’une plasticité synaptique au sein du striatum dorsomédian qui accompagne l’adaptation de l’anticipation à une nouvelle durée (changement de l’intervalle à 10 secondes, au lieu de 30 secondes), sous contrôle de la détection du changement par l’amygdale basolatérale. L’analyse fine des données a mis en évidence l’implication différentielle de ce réseau dans l’adaptation à la nouvelle durée et l’élimination de la durée initiale.
Cette étude, réalisée en collaboration avec des chercheurs de la New York University (NYU, New York, USA), dans le cadre du Laboratoire International Associé ‘EmoTime’ et du Partner University Fund ‘Emotion & Time’, apporte la première démonstration de l’importance de l’interaction entre structures au sein d’un réseau dans le contrôle d’une plasticité synaptique associée à l’adaptation à de nouvelles contraintes temporelles, en particulier en freinant l’élimination des acquis temporels. Le paramètre ‘temps’ étant à la clef de tout apprentissage associatif, cette étude enrichit notre compréhension des mécanismes sous-tendant l’apprentissage et les capacités de flexibilité comportementale lors de changements de l’environnement, capacités sans cesse mises en jeu dans la vie de tous les jours.

 

 DOCUMENT           cnrs       LIEN

Un contrôle de neurorécepteur par la lumière pour atténuer les symptômes de la douleur chronique

il y a 3 mois


Paris, 20 décembre 2016
Un contrôle de neurorécepteur par la lumière pour atténuer les symptômes de la douleur chronique

La douleur nous sert de précieux signal d'alarme, mais elle se transforme en véritable maladie lorsqu'elle devient chronique. Une équipe internationale, comprenant des chercheurs du CNRS et de l'Inserm1, a identifié et contrôlé un des centres associés aux douleurs chroniques. Ces travaux, publiés le 20 décembre 2016 dans Molecular Psychiatry, ont permis d'en soulager les symptômes chez des souris et de montrer la capacité du cerveau d'y remédier.
Alors qu'environ 20% de la population européenne a connu des épisodes de douleur chronique, les traitements sont efficaces chez moins de la moitié des patients. Cette maladie est pourtant associée à des modifications du système nerveux. Les chercheurs souhaitent donc comprendre comment le cerveau module la douleur physique et les désordres affectifs et cognitifs qui l'accompagnent : anxiété, perte des émotions positives, hypersensibilité à la douleur… Dans cette étude, ils se sont penchés sur l'amygdale, une région du cerveau impliquée dans la gestion de la douleur et des émotions, et sur le récepteur du glutamate de type 4 (mGlu4). Il s'agit du principal transmetteur des signaux de douleur dans le système nerveux des mammifères. Ce neurorécepteur détecte la présence du glutamate et diminue, selon les besoins, sa libération au niveau de la synapse. 

Afin d'étudier ces récepteurs, les chercheurs utilisent en général un ligand capable de les activer ou de les inhiber. Ils ont innové en créant un ligand particulier photo-contrôlable, l'optogluram, dont l'action sur mGlu4 est pilotée par la lumière. L'utilisation de fibres optiques leur permet alors de contrôler très précisément l'activation du neurorécepteur dans une zone donnée du cerveau. Les scientifiques se sont penchés sur des souris conscientes et libres de leurs mouvements, atteintes de douleurs inflammatoires chroniques. En activant l'optogluram par la lumière, ils ont pu inhiber de manière rapide et réversible ces symptômes douloureux, démontrant ainsi que le cerveau de ces souris conservait sa capacité à contrer ces effets. Avec l'identification d'un modulateur capable d'agir sur la douleur chronique, ces travaux sont  porteurs d'espoirs thérapeutiques.

 

 DOCUMENT         cnrs        LIEN

Sommeil paradoxal ces neurones qui nous paralysent

il y a 3 mois

Paris, 12 décembre 2016
Sommeil paradoxal : ces neurones qui nous paralysent

Lors du sommeil paradoxal, le cerveau inhibe le système moteur, ce qui rend le dormeur complètement immobile. Des chercheurs CNRS travaillant au Centre de recherche en neurosciences de Lyon (CNRS/Université Claude Bernard Lyon 1/Inserm/Université Jean Monnet) ont identifié une population de neurones responsables de cette paralysie transitoire des muscles. Le modèle animal créé permettra de mieux comprendre l'origine de certains troubles du sommeil paradoxal, en particulier la maladie qui empêche cette paralysie corporelle. Il sera également d'une grande aide pour étudier la maladie de Parkinson, les deux pathologies étant liées. Ces travaux sont publiés le 12 décembre 2016 sur le site de la revue Brain.
Pourtant plongé dans un sommeil profond, le patient parle, s'agite, donne des coups de pied et finit par tomber de son lit. Il souffre d'une forme de parasomnie appelée REM Sleep Behavior Disorder1 (RBD), une maladie du sommeil qui se déclare aux alentours de la cinquantaine. Alors que pendant la phase de sommeil paradoxal, les muscles sont au repos, chez ce patient, la paralysie corporelle est absente, sans que l'on sache bien pourquoi. Il exprime alors des mouvements anormaux reflétant très probablement son activité onirique.

Une équipe du Centre de recherche en neurosciences de Lyon (CNRS/Inserm/Université Claude Bernard Lyon 1/Université Jean Monnet) a fait un pas de plus dans la compréhension de cette pathologie. Les chercheurs ont identifié dans le cerveau les neurones du noyau sub-latérodorsal, idéalement placés pour contrôler la paralysie du système moteur pendant le sommeil paradoxal. Chez le rat, ils ont ciblé spécifiquement cette population de neurones en y introduisant des vecteurs viraux génétiquement modifiés2. Une fois dans les cellules neurales, ceux-ci bloquent l'expression d'un gène permettant la sécrétion synaptique du glutamate. Incapables de libérer ce neurotransmetteur excitateur, ces neurones ne peuvent alors plus communiquer avec leurs voisins. Ils sont déconnectés du réseau cérébral nécessaire à la paralysie corporelle du sommeil paradoxal.

Depuis 50 ans, la communauté scientifique considérait que ces neurones à glutamate généraient le sommeil paradoxal lui-même. L'expérience menée par l'équipe balaye cette hypothèse : même sans aucune activité de ce circuit neuronal, les rats passent bien par cet état de sommeil. Ils sont profondément endormis et déconnectés du monde extérieur, les paupières closes. Pourtant ces rats ne sont plus paralysés. Leurs comportements rappellent très fortement le tableau clinique des patients souffrant de RBD. Les neurones à glutamate ciblés dans cette étude jouent donc un rôle essentiel dans la paralysie corporelle pendant le sommeil paradoxal et seraient prioritairement atteints dans cette pathologie neurologique.

Ces travaux de recherche vont au-delà de la création d'un nouveau modèle préclinique mimant cette parasomnie. Ils pourraient même avoir une importance capitale dans l'étude de certaines maladies neurodégénératives. En effet, de récents travaux de recherche clinique ont montré que les patients diagnostiqués avec le RBD développent presque systématiquement les symptômes moteurs de la maladie de Parkinson, en moyenne une décennie plus tard. L'équipe cherche maintenant à développer un modèle animal évoluant de la parasomnie à la maladie de Parkinson afin de comprendre les prémices de la dégénérescence neuronale.

 

   DOCUMENT         cnrs        LIEN 

Imiter les virus pour livrer des médicaments au coeur des cellules

il y a 3 mois


Paris, 27 août 2015
Imiter les virus pour livrer des médicaments au coeur des cellules

Les virus ont une aptitude à détourner le fonctionnement des cellules pour les infecter. En s'inspirant de leur mode d'action, des chercheurs du CNRS et de l'Université de Strasbourg ont conçu un « virus chimique » capable de franchir la double couche de lipides qui délimite les cellules, puis de se désagréger dans le milieu intracellulaire afin d'y libérer des molécules actives. Pour cela, ils ont utilisé deux polymères de leur conception, qui ont notamment des capacités d'auto-assemblage ou de dissociation selon les conditions. Ces travaux, fruit d'une collaboration entre chimistes, biologistes et biophysiciens, sont publiés dans l'édition du 1er septembre de la revue Angewandte Chemie International Edition.
Les progrès biotechnologiques donnent accès à un trésor de molécules ayant un potentiel thérapeutique. Beaucoup de ces molécules sont actives uniquement à l'intérieur des cellules humaines et restent inutilisables car la membrane lipidique qui délimite les cellules est une barrière qu'elles ne peuvent pas franchir. L'enjeu est donc de trouver des solutions de transfert aptes à traverser cette barrière. 

En imitant la capacité des virus à pénétrer dans les cellules, des chimistes du Laboratoire de conception et application de molécules bioactives (CNRS/Université de Strasbourg) cherchent à concevoir des particules à même de libérer des macromolécules actives uniquement au sein des cellules. Pour cela, ces particules doivent obéir à plusieurs contraintes souvent contradictoires. Elles doivent être stables dans le milieu extracellulaire, capables de se lier aux cellules afin d'être internalisées mais être plus fragiles à l'intérieur des cellules pour libérer leur contenu. Avec deux polymères de leur conception, les chercheurs ont réussi à construire un "virus chimique" remplissant les conditions nécessaires pour transférer directement des protéines actives dans la cellule.

Concrètement, le premier polymère (pGi-Ni2+) sert de support aux protéines, qui s'y fixent. Le second polymère (πPEI), récemment breveté, encapsule cet ensemble grâce à ses charges positives qui se lient aux charges négatives du pGi-Ni2+. Les particules obtenues (30-40 nanomètres de diamètre) sont capables de reconnaitre la membrane entourant les cellules et de s'y lier. Cette liaison active une réponse cellulaire : la nanoparticule est enveloppée par un fragment de membrane et entre dans un compartiment intracellulaire appelé endosome. Alors qu'ils étaient stables à l'extérieur de la cellule, les assemblages sont ébranlés par l'acidité qui règne dans ce nouvel environnement. Par ailleurs, cette baisse de pH permet au polymère πPEI de faire éclater l'endosome, ce qui libère son contenu en molécules actives. 

Grâce à cet assemblage, les chercheurs ont pu concentrer suffisamment de protéines actives à l'intérieur des cellules pour obtenir un effet biologique notable. Ainsi, en transférant une protéine appelée caspase 3 dans des lignées de cellules cancéreuses, ils ont réussi à induire 80 % de mort cellulaire1. 

Les résultats in vitro sont encourageants, d'autant que ce "virus chimique" ne devient toxique qu'à une dose dix fois supérieure à celle utilisée dans cette étude. Par ailleurs, des résultats préliminaires chez la souris ne font pas état de surmortalité. L'élimination par l'organisme des deux polymères reste cependant une question ouverte. La prochaine étape consistera à tester ce système de manière approfondie in vivo, chez l'animal. A court terme, ce système servira d'outil de recherche pour vectoriser2 dans les cellules des protéines recombinantes et/ou chimiquement modifiées. A long terme, ce travail pourrait ouvrir le champ d'application des protéines pharmaceutiques à des cibles intracellulaires et contribuer à la mise au point de médicaments novateurs. 

Ces travaux ont été rendus possibles par la collaboration de biophysiciens et de biologistes. Les compétences en cryomicroscopie électronique de l'Institut de génétique et de biologie moléculaire et cellulaire (CNRS/Université de Strasbourg/Inserm) et l'expertise en microscopie à force atomique du Laboratoire de biophotonique et pharmacologie (CNRS/Université de Strasbourg) ont permis de caractériser les assemblages moléculaires de manière très précise. Le laboratoire Biotechnologie et signalisation cellulaire (CNRS/Université de Strasbourg) a quant à lui fourni les protéines recombinantes encapsulées dans le virus artificiel.

 

  DOCUMENT       cnrs        LIEN

Comment le phytoplancton domine-t-il les océans

il y a 3 mois


Paris, 20 juin 2017
Comment le phytoplancton domine-t-il les océans ?

La photosynthèse est un processus unique qui, dans le monde vivant, a permis la colonisation des terres et des océans, respectivement par les plantes et le phytoplancton. Si les mécanismes de la photosynthèse sont bien connus chez les plantes, les scientifiques commencent seulement à comprendre comment le phytoplancton a développé une photosynthèse. Dans le cadre d'une collaboration internationale1, des chercheurs du Laboratoire de physiologie cellulaire & végétale (CNRS/CEA/UGA/Inra)2, de l'Institut de biologie structurale (CNRS/CEA/UGA), du Laboratoire d'études des matériaux par microscopie avancée (CEA/UGA)3, et du Laboratoire de physiologie membranaire et moléculaire du chloroplaste (CNRS/UPMC) proposent un modèle structural du processus photosynthétique chez le phytoplancton, en étudiant la diatomée Phaeodactylum tricornutum. Ces résultats sont publiés le 20 Juin 2017 dans Nature communications.
La photosynthèse est un mécanisme remarquable de production d'énergie chimique à partir d'énergie lumineuse. Ce processus est possible grâce à deux petites usines photochimiques, appelées photosystèmes I et II. Mais pour que la photosynthèse puisse avoir lieu, ces deux photosystèmes ne doivent pas être en contact afin d'éviter les courts-circuits, qui diminuent la photosynthèse. Chez les plantes, ils sont séparés par des structures (image A) qui ne semblent pas exister chez le phytoplancton (image B). Comment le phytoplancton peut-il donc être responsable de la moitié de la photosynthèse sur Terre ?

En adaptant différentes approches d'imagerie cellulaire à haute résolution appliquées à la diatomée Phaeodactylum tricornutum, les chercheurs ont été en mesure de développer un modèle 3D du système photosynthétique des diatomées (image C). Ils ont ainsi observé l'existence de micro-domaines qui séparent, comme chez les plantes, les deux photosystèmes, permettant une photosynthèse encore plus efficace. L'ensemble de ces résultats explique comment les diatomées produisent chaque jour environ 20 % de l'oxygène libéré sur Terre et pourquoi elles dominent les océans depuis environ 100 millions d'années.

Les chercheurs continuent de développer ce modèle 3D de la photosynthèse chez les diatomées, qui leur permettra notamment de comprendre comment ces organismes unicellulaires s'adapteront aux conséquences des changements climatiques. 

 


            DOCUMENT       cnrs        LIEN

Prévision des séismes une technique innovante pour observer les failles sous-marines

il y a 4 mois

Paris, 8 juillet 2016
Prévision des séismes : une technique innovante pour observer les failles sous-marines

Pour surveiller un segment de la faille sismique nord-anatolienne près d'Istanbul, une équipe internationale de chercheurs, notamment du CNRS et de l'université de Bretagne occidentale, a déployé un réseau de balises au fond de la mer de Marmara. Objectif : mesurer les mouvements des fonds marins de part et d'autre de ce segment. Les données récoltées lors des six premiers mois révèlent que la faille serait bloquée au niveau de ce segment, suggérant une accumulation progressive d'énergie susceptible d'être libérée brusquement. Ce qui pourrait provoquer un séisme de forte magnitude à proximité d'Istanbul. Cette étude, issue d'une collaboration entre des chercheurs français, allemands et turcs, vient d'être publiée dans Geophysical Research Letters.
La faille nord-anatolienne, responsable de tremblements de terre destructeurs en 1999 en Turquie, est comparable à la faille de San Andreas en Californie. Elle constitue la limite des plaques tectoniques eurasiatique et anatolienne, qui se déplacent l'une par rapport à l'autre d'environ 2 cm par an. Le comportement d'un segment sous-marin de cette faille, situé à quelques dizaines de kilomètres au large d'Istanbul, en mer de Marmara, intrigue particulièrement les chercheurs, car il semble exempt de sismicité depuis le 18e siècle. Comment se comporte ce segment ? Glisse-t-il en continu, cède-t-il régulièrement, provoquant de petits séismes épisodiques de faible magnitude ou est-il bloqué, laissant présager une future rupture et donc un fort séisme ?

Observer in situ le mouvement d'une faille sous-marine sur plusieurs années est un vrai défi. Pour le relever, les chercheurs testent une méthode de télédétection sous-marine innovante, à l'aide de balises acoustiques actives, autonomes et interrogeables à distance depuis la surface de la mer. Posées sur le fond marin de part et d'autre de la faille à 800 mètres de profondeur, ces balises s'interrogent à tour de rôle par paire et mesurent le temps aller-retour d'un signal acoustique entre elles. Ces laps de temps sont ensuite convertis en distances entre les balises. C'est la variation de ces distances dans le temps qui permet de détecter un mouvement des fonds marins et la déformation du réseau de balises, de déduire les déplacements de la faille. Concrètement, un réseau de dix balises françaises et allemandes a été déployé lors d'une première campagne en mer1 en octobre 2014. Les six premiers mois de données (temps de parcours, température, pression et stabilité)2 confirment les performances de la méthode. Après calculs, les données ne révèlent aucun mouvement significatif de la faille surveillée, dans la limite de résolution du réseau. Les distances entre balises, séparées de 350 à 1700 mètres, sont mesurées avec une résolution de 1,5 à 2,5 mm. Ce segment serait donc bloqué ou quasi-bloqué, et accumulerait des contraintes susceptibles de générer un séisme. L'acquisition d'information sur plusieurs années sera cependant nécessaire pour confirmer cette observation ou caractériser un fonctionnement plus complexe de cette portion de faille.

Si, au-delà de cette démonstration, cette approche dite de « géodésie acoustique fond de mer » s'avère robuste sur le long terme (ici 3 à 5 ans sont envisagés dans la limite d'autonomie des batteries), elle pourrait être intégrée dans un observatoire sous-marin permanent en complément d'autres observations (sismologie, émission de bulles, …) pour surveiller in situ et en temps réel l'activité de cette faille en particulier, ou d'autres failles actives sous-marines dans le monde.

Ces travaux sont menés par le Laboratoire Domaines océaniques3 (LDO, CNRS/Université de Bretagne occidentale), en collaboration avec le laboratoire Littoral environnement et sociétés (CNRS/Université de La Rochelle), l'institut Geomar à Kiel (Allemagne), le Centre européen de recherche et d'enseignement de géosciences de l'environnement (CNRS/Collège de France/AMU/IRD), le Laboratoire Géosciences marines de l'Ifremer, l'Eurasian Institute of Earth Sciences de l'Université Technique d'Istanbul (Turquie) et le Kandilli Observatory and Earthquake Research Institute de l'Université Bogazici d'Istanbul. Cet article est dédié à la mémoire d'Anne Deschamps, chargée de recherche CNRS au LDO, initiatrice et responsable du projet, décédée peu après avoir conduit avec succès le déploiement de ces balises.

 

 DOCUMENT         cnrs        LIEN 

LE CLIMAT MÉCANISMES ET VARIABILITÉ

il y a 4 mois

LE CLIMAT : MÉCANISMES ET VARIABILITÉ
"Le climat peut se définir comme la distribution statistique des conditions météorologiques prévalant dans les basses couches de l'atmosphère où vivent les hommes. Celles-ci sont le résultat de mécanismes variés mettant en jeu l'énergie reçue du soleil, le rayonnement tellurique, la composition chimique de l'atmosphère, la rotation de la Terre, la topographie des continents, la dynamique des deux fluides que sont l'atmosphère et océan, le cycle de l'eau, la végétation et l'hydrologie des sols. La circulation de l'atmosphère et de l'océan détermine les climats régionaux et assure le transport de l'énergie des tropiques vers les pôles, et plus généralement, des régions excédentaires vers les régions déficitaires. Les grandes caractéristiques du climat sont associées dans les tropiques, à la circulation de Hadley-Walker qui module les saisons des pluies équatoriales et les déserts subtropicaux ; et dans les moyennes latitudes, aux contrastes thermiques qui induisent des régimes de temps dominés par d'incessantes perturbations. Enfin, le climat n'est jamais réellement en équilibre : il varie à toutes les échelles de temps sous l'effet des effets tectoniques, des fluctuations du mouvement orbital de la Terre, des variations de l'irradiation solaire, et aujourd'hui, des perturbations planétaires dues à l'activité des hommes.. "

 

Le climat

par Robert Sadourny

Qu'est-ce que le climat ?

Comme la météorologie est la science des météores, en particulier du temps qu'il fait ou qu'il va faire, la climatologie est la science du climat, c'est à dire la science des probabilités ou des statistiques sur le temps. On entend trop souvent dire qu'une fête a été gâchée (par exemple) « en raison des mauvaises conditions climatiques », alors qu'il s'agit là, bien sûr, de mauvaises conditions météorologiques : le climat ne change pas quand en quelques jours, on passe du beau temps au mauvais temps !

Quand nous parlons de climat, de quel système physique parlons-nous ? Le système climatique inclut naturellement les basses couches de l'atmosphère où nous vivons, et les couches plus élevées dont le comportement est étroitement lié à celles-ci : principalement la troposphère et dans une moindre mesure, la stratosphère. Ce système inclut aussi les océans et les couches superficielles des terres émergées, qui échangent de l'eau et de la chaleur avec l'atmosphère, et bien sûr, les glaces de terre et de mer. Mais l'étude du climat ne se réduit pas à celle d'un système physique. Le climat interagit très fortement avec la chimie de l'atmosphère et de l'océan, et aussi avec la biosphère, c'est à dire l'ensemble des êtres vivants.

Étudier le climat, c'est non seulement observer continûment, sur l'ensemble du globe et durant de longues périodes, le comportement de l'atmosphère, de l'océan, des glaces et des terres émergées, mais aussi modéliser l'ensemble des mécanismes du système pour simuler son évolution. C'est en comparant le climat simulé au climat observé que nous mesurons notre niveau de compréhension des mécanismes, et donc nos capacités à prédire les évolutions futures. La climatologie s'est développée très rapidement à l'ère des satellites et des calculateurs. Les sondeurs spatiaux placés à bord de satellites à défilement, à orbite quasi-polaire, comme la série météorologique opérationnelle américaine Nimbus, permettent de suivre l'évolution des profils verticaux de la température et de l'humidité sur l'ensemble du globe. Les radiomètres à bande large, comme ERBI, ScaRaB ou CERES nous permettent de suivre les variations spatio-temporelles du bilan d'énergie de la planète. Les satellites géostationnaires comme Météosat observent en permanence les tropiques et les latitudes moyennes de leur position équatoriale à 36 000 km d'altitude. L'altimètre de TOPEX-Poséidon mesure, avec une précision de quelques centimètres, l'altitude du niveau de la mer, qui nous renseigne sur la dynamique des courants.

Quant aux modèles de climat, ce sont bien sûr des modèles pronostiques, qui décrivent une évolution dans le temps à partir d'une situation initiale donnée, comme les modèles de prévision météorologique. Mais ils doivent inclure, en plus de l'atmosphère, des océans et des glaces de mer interactifs, ainsi que les couverts végétaux et l'hydrologie des terres émergées. Ces modèles simulent en particulier le cycle de l'eau dans son ensemble, la formation des divers types de nuages, la formation de glaces de mer ; ils commencent aujourd'hui à inclure une végétation interactive et certains cycles chimiques comme le cycle du carbone et celui de l'ozone stratosphérique. Le coût de calcul est tel que, dans la pratique, la durée d'une simulation dépasse rarement le siècle ; pour des simulations plus longues, il faut user de modèles simplifiés. Le résultat d'une simulation est une évolution, c'est à dire une succession d'états instantanés du système ; l'interprétation climatologique de cette simulation repose ensuite sur l'analyse statistique de cet succession d'états. C'est d'ailleurs bien parce que le climat est un problème statistique que nous pouvons prolonger nos simulations bien au delà de la limite de prévisibilité de l'atmosphère (une douzaine de jours au plus) : on ne s'intéresse plus, comme dans la prévision du temps, aux perturbations individuelles, mais à leurs probabilités d'occurrence. Ces statistiques sont basées, soit sur des moyennes temporelles, soit sur des ensembles de simulations indépendantes. Ces dernières sont relativement faciles à construire. Il suffit par exemple de perturber très légèrement les états initiaux : à cause des instabilités du système, deux solutions initialement très proches deviennent totalement décorrélées dès qu'on atteint la limite de prévisibilité.

Énergie et climat

Le climat est d'abord une affaire d'énergie. L'apport d'énergie vient presque exclusivement du soleil ; il se répartit dans l'espace et dans le temps en fonction du mouvement orbital de la Terre, de la rotation de celle-ci sur elle-même, et des variations dans le temps de la puissance solaire. La façon dont cette énergie solaire incidente traverse l'atmosphère, pénètre à la surface, se transforme en d'autres types d'énergie comme l'énergie latente ou l'énergie potentielle, puis est réémise vers l'espace à travers l'atmosphère sous forme d'énergie infrarouge, dépend de la composition physico-chimique de l'atmosphère, du cycle de l'eau, des propriétés optiques de l'océan, de l'état des surfaces émergées et de leur couvert végétal, et enfin du transport d'énergie d'un endroit à l'autre de la planète par les mouvements de l'atmosphère et de l'océan. L'ensemble du système peut s'interpréter comme une sorte d'énorme machine thermique.

Intéressons-nous d'abord aux valeurs moyennes qui déterminent le climat terrestre. La luminosité solaire actuelle correspond à un flux incident d'énergie solaire d'environ 1368 Wm-2 ; si nous répartissons ce flux sur l'ensemble de la surface terrestre (soit quatre fois la section du cylindre intercepté par la Terre), nous obtenons une valeur moyenne de 342 Wm-2. De ce flux incident, environ 30 %, soit 102 Wm-2, est réfléchi ou rétrodiffusé vers l'espace par les nuages, les aérosols, la neige et les parties les plus réfléchissantes de la surface, notamment les déserts. Restent donc 240 Wm-2 qui sont réellement absorbés par le système : environ 65 par l'atmosphère, le reste, environ 175, servant à chauffer la surface. Le fait que presque les trois quarts de l'énergie solaire absorbée le soit au niveau de la surface entraîne naturellement que la température de l'air décroît quand on s'élève ; mais l'effet de serre accentue très fortement cette décroissance. En effet, la surface chauffée par le rayonnement solaire restitue son énergie à l'espace principalement sous forme de rayonnement infrarouge, dont une partie est absorbée et réémise vers le bas par l'écran des gaz à effet de serre (vapeur d'eau, CO2, méthane, N2O, ozone, halocarbures) ainsi que par les nuages. Cet effet de serre piège ainsi une grande quantité de chaleur dans les basses couches, dont il contribue à élever encore la température. Le rayonnement intercepté par l'effet de serre est de l'ordre de 155 Wm-2 ; cette valeur est une mesure de l'effet de serre total. Une autre mesure possible de l'effet de serre est le réchauffement qu'il entraîne pour la surface : 33°C, calculé comme la différence entre la température moyenne de la surface (288 K), et la température de la Terre vue de l'espace à travers l'atmosphère (255 K).

Les radiomètres à bandes larges comme ScaRaB (CNRS-CNES), qui mesurent le bilan radiatif depuis l'espace, nous renseignent sur les flux nets de rayonnement solaire et infrarouge irradiés par la Terre vers l'espace. Combinées avec les mesures de surface, les données de ces instruments permettent par exemple d'étudier la modulation de l'effet de serre par la température de surface, par la vapeur d'eau (le plus abondant des gaz à effet de serre) et par les nuages. D'après ScaRaB, la contribution des nuages à l'effet de serre global est d'environ 30 Wm-2, alors qu'ils augmentent la réflectivité de la planète de 48 Wm-2 : l'effet radiatif net des nuages va donc dans le sens d'un refroidissement du climat par 18 Wm-2. Bien sûr, il s'agit là d'une valeur moyenne : l'effet radiatif varie selon les types de nuages, et se répartit diversement en fonction des lieux et des saisons.

En moyenne sur le globe et dans le temps, le bilan d'énergie de la planète Terre est à peu près équilibré : la Terre irradie vers l'espace dans l'infrarouge une énergie sensiblement égale à celle qu'elle reçoit du soleil. Mais il est bien évident que cet équilibre ne peut être qu'approché, à cause des oscillations permanentes - diurnes, saisonnière et autres - du système climatique, et aussi, aujourd'hui, de la perturbation faible mais significative due à l'activité planétaire des hommes.

Le rôle de l'atmosphère et de l'océan

Par contre, en un point donné de la Terre, le bilan des échanges d'énergie avec l'espace est loin d'être équilibré. Dans les tropiques, la Terre reçoit plus d'énergie solaire qu'elle n'émet de rayonnement infrarouge ; dans les régions polaires, c'est l'inverse. Les régions d'excédent ou de déficit énergétique sont modulées par les saisons : l'hémisphère d'hiver est partout déficitaire, c'est à dire qu'en tout point, il perd de l'énergie vers l'espace. Certaines régions du globe sont même déficitaires durant toute l'année. C'est le cas des déserts subtropicaux comme le Sahara : l'air au dessus du Sahara étant particulièrement sec et sans nuage, l'effet de serre est minimal, ce qui entraîne une forte perte d'énergie infrarouge (d'où des températures nocturnes très basses) ; en outre, l'absence de végétation se traduit par une forte réflectivité de la surface, qui renvoie vers l'espace 30 à 40 % de l'énergie solaire incidente. La conjugaison de ces deux mécanismes fait de la région saharienne un puits d'énergie qui persiste tout au long de l'année.

La distribution du bilan net, ou flux net d'énergie entre la Terre et l'espace, nous renseigne sur les mouvements de l'atmosphère et de l'océan. En effet, ce sera le rôle de ces deux fluides de transporter l'excès d'énergie reçue ici ou là, vers les régions où le déficit domine. En particulier, l'océan et l'atmosphère vont transporter l'énergie de la bande tropicale vers les moyennes et les hautes latitudes, plus particulièrement du côté de l'hémisphère d'hiver. Intégrés sur un parallèle et sur l'épaisseur de l'atmosphère et de l'océan, ces flux méridiens sont de l'ordre de 5x1015 Watts. L'océan et l'atmosphère prennent une part sensiblement égale à ces transferts.

Comment l'atmosphère et l'océan peuvent-ils transporter l'énergie d'un endroit à l'autre de la planète ?

Un premier mécanisme est le mélange horizontal des masses d'air. Il est surtout efficace dans l'atmosphère, aux latitudes moyennes et pendant l'hiver, là où la température varie très rapidement avec la latitude. L'instabilité de l'écoulement atmosphérique crée des perturbations (basses pressions autour desquelles l'air tourne à peu près horizontalement dans le sens inverse des aiguilles d'une montre) qui brassent l'air chaud et souvent humide venant des subtropiques, avec l'air froid et plutôt sec venant des hautes latitudes. Cet échange se traduit par un flux de chaleur et d'énergie latente (ou vapeur d'eau) allant des subtropiques vers les hautes latitudes. Le brassage par les perturbations n'est efficace pour transporter l'énergie que parce qu'il mélange des masses d'air subtropical très énergétique, avec des masses d'air subpolaire qui le sont beaucoup moins.

Dans la bande tropicale, ce type de transport devient totalement inefficace, car les températures sont horizontalement très uniformes, et il en est de même des niveaux d'énergie. L'énergie sera transportée par des mouvements tridimensionnels, organisés en rouleaux, avec des régions d'ascendance et des régions de subsidence, le fluide allant dans les hautes couches, des régions d'ascendance vers les régions de subsidence, et dans les basses couches, des régions de subsidence vers les régions d'ascendance. Pour comprendre comment des rouleaux verticaux peuvent transporter de l'énergie suivant l'horizontale, il nous faut dire quelques mots de deux propriétés très importantes de l'atmosphère et de l'océan : il s'agit de la stratification et de la stabilité.

L'atmosphère et l'océan sont des fluides presque partout stratifiés en densité, en pression et en température : la densité, la pression et la température varient beaucoup plus vite (par plusieurs ordres de grandeur) suivant la verticale que suivant l'horizontale. L'origine de la stratification en température de l'atmosphère est, on l'a vu, le chauffage par la surface et l'effet de serre ; quant à l'océan, il est aussi chauffé par la surface et la température décroît naturellement quand on s'enfonce. Il va de soi que, partout où ces stratifications sont établies, elle sont stables, c'est-à-dire que le fluide léger est situé au dessus du fluide plus lourd ; les mouvements sont quasi-hydrostatiques. On démontre qu'une stratification est stable si l'énergie croît quand on s'élève.

Puisqu'il en est ainsi, il est clair que dans une circulation en rouleaux, la branche supérieure transporte plus d'énergie des ascendances vers les subsidences, que la branche inférieure n'en transporte des subsidences vers les ascendances. Le bilan net sera donc un transport d'énergie des ascendances vers les subsidences : les régions excédentaires en énergie seront des régions d'ascendance, et les régions déficitaires, des régions de subsidence.

Dans l'atmosphère, les régions excédentaires se trouvent principalement dans les tropiques, là où l'atmosphère reçoit un fort apport d'énergie à la surface : sur les continents, là où le soleil est au zénith, et sur l'océan, là où la surface de l'eau est particulièrement chaude. Cet apport d'énergie à la base a un effet déstabilisateur : les ascendances s'accompagnent de puissants mouvements convectifs (cumulonimbus pouvant atteindre jusqu'à 20 km de hauteur) qui transportent l'énergie vers le haut et restabilisent la stratification. Les masses d'air léger, chaud et humide qui montent dans ces tours convectives se refroidissent, leur humidité se condense et retombe en pluie : le passage du soleil au zénith sur les continents tropicaux correspond ainsi à la saison des pluies ou mousson. C'est donc un air froid et sec qui atteint les hautes couches et se dirige vers les régions déficitaires en énergie comme les déserts, où il redescend vers la surface. Ainsi, la désertification favorise le développement d'une subsidence d'air sec, qui en retour, favorise la désertification. Le contraste entre les régions convectives et humides, et les régions de subsidence où l'air est sec sont particulièrement visibles sur les images du canal vapeur d'eau de Météosat.

Dans l'océan, c'est la déperdition d'énergie à la surface, aux hautes latitudes, qui tend à violer la condition de stabilité et déclenche la convection. Celle-ci se produit surtout dans les mers de Norvège et du Labrador, et, près de l'Antarctique, dans la mer de Weddell, où l'eau lourde, froide et salée plonge et alimente la circulation abyssale.

La vapeur d'eau dans l'atmosphère, le sel dans l'océan sont tous deux des facteurs déstabilisants pour la stratification. Les seules sources de la vapeur d'eau atmosphérique (ou énergie latente) se trouvent à la surface : c'est l'évaporation sur l'océan, les surfaces d'eau ou les sols humides, ou l'évapotranspiration des couverts végétaux. De plus, la pression de vapeur saturante décroît exponentiellement quand la température s'abaisse : un air très froid ne peut absorber que très peu de vapeur d'eau. L'énergie latente est donc confinée dans les tropiques et surtout dans les basses couches de l'atmosphère, ce qui va à l'encontre de la loi de stabilité. C'est la raison pour laquelle la convection tropicale est dominée par la convection humide. Dans l'océan, l'évaporation à la surface alourdit l'eau superficielle en la chargeant en sel. Aux hautes latitudes, la formation de glace de mer est une source additionnelle de sel : le sel expulsé par la glace vient alourdir l'eau de surface, favorisant l'apparition de cheminées convectives, où se forme l'eau profonde.

Dans l'atmosphère tropicale, la circulation en rouleaux peut se schématiser en moyenne zonale sous le nom de cellule de Hadley, qui transporte l'énergie de ce que l'on appelle l'équateur météorologique, vers les subtropiques de l'hémisphère d'hiver. Au delà des subtropiques, c'est le mélange horizontal qui prend le relais pour transporter l'énergie vers les pôles. Il est intéressant de noter que lorsqu'on s'élève, si l'énergie totale et bien sûr l'énergie potentielle croissent, la chaleur sensible et l'énergie latente décroissent. Si donc les rouleaux exportent de l'énergie totale des régions d'ascendance, ils y importent en même temps de l'énergie sensible et latente, favorisant ainsi la convection et le maintien des rouleaux.

L'analogue dans l'océan des circulations en rouleaux dans l'atmosphère est la circulation tridimensionnelle dite thermohaline, parce qu'elle est gouvernée par les variations de flottaison due à la dilatation thermique et à la salinité. L'eau froide et salée qui plonge dans les mers de Norvège et du Labrador s'écoule lentement vers le sud au fond de l'Atlantique, franchit l'équateur et contourne le cap de Bonne Espérance pour rejoindre l'Océan Indien où une partie remonte à la surface ; le reste poursuit sa route vers l'est et remonte à la surface à son tour dans le Pacifique équatorial. Sous l'effet des alizés, ces eaux de surface reprennent ensuite le chemin inverse, et remontent vers le nord de l'Atlantique où elles se refroidissent, se chargent en sel, et ainsi alourdies, plongent à nouveau. Cette circulation de « tapis roulant océanique » est extrêmement lente, puisque la durée du cycle est de l'ordre de 500 ans à 1 000 ans. C'est elle qui réchauffe aujourd'hui le climat européen et en fait, à latitude égale, le plus tempéré du globe.

L'atmosphère et l'océan nous apparaissent ainsi comme les deux acteurs principaux du grand jeu climatique. Le dialogue entre ces deux acteurs joue un rôle central : les vents entraînent les eaux superficielles de l'océan ; en retour le mouvement des masses d'eau transporte de grandes quantités de chaleur qui réchauffent à leur tour l'atmosphère, modifiant ainsi le régime des vents qui vont à leur tour entraîner l'océan. Les interactions de ce type, ou rétroactions, sont monnaie courante dans le système climatique ; elles engendrent les instabilités et les oscillations naturelles qui dominent le comportement du système.

Oscillations internes

Parmi les oscillations liées aux interactions océan-atmosphère, la plus connue est le phénomène portant les noms d'El Niño (pour sa partie océanique) et d'Oscillation Australe (pour sa partie atmosphérique). Pour aborder les mécanismes d'El Niño, il faut indiquer tout d'abord que la rotation terrestre impose une domination des vents alizés (c'est-à-dire des vents d'est) dans les tropiques : c'est l'existence des alizés qui assure que la Terre solide transmet par friction sa rotation à l'atmosphère. L'entraînement des eaux superficielles du Pacifique tropical vers l'ouest par les alizés conduit à une accumulation d'eaux chaudes (plus de 30°C) dans toute la partie ouest, et à des remontées d'eaux froides au voisinage des côtes du Pérou. L'énorme quantité d'énergie ainsi emmagasinée à l'ouest se transmet à l'atmosphère, et entretient au voisinage de l'Indonésie une activité convective intense. Il en résulte, comme nous l'avons vu plus haut, une circulation en rouleau dite circulation de Walker, avec des ascendances sur les eaux chaudes de l'ouest du Pacifique et des subsidences sur les eaux froides de l'est. L'établissement de cette circulation se traduit, dans sa branche basse, par un renforcement des alizés. Nous avons là un exemple de ces rétroactions qui conduisent à des oscillations propres du système. Dans les périodes d'intensification des alizés, le Pacifique oriental est très froid, la convection sur l'Indonésie très intense. Dans les périodes d'affaiblissement des alizés, la masse d'eau chaude superficielle reflue vers l'est, la convection quitte l'Indonésie pour le centre et l'est du Pacifique. Toute la circulation en rouleaux de la bande tropicale s'en trouve modifiée : on observe des sécheresses dramatiques dans certaines régions comme l'Indonésie ou l'Australie, et des pluies diluviennes sur d'autres comme le Pérou. Le schéma le plus simple de cette oscillation est un schéma unidimensionnel, dans lequel les constantes de temps de l'oscillation sont déterminées par la propagation longitudinale d'ondes équatoriales. La réalité est naturellement plus complexe, et met en jeu l'ensemble des interactions entre les circulations tridimensionnelles de l'atmosphère et de l'océan au voisinage du Pacifique équatorial. Ces phénomènes commencent d'ailleurs à être assez bien modélisés pour que l'on aborde le stade des prévisions expérimentales.

El Niño est une oscillation interannuelle, avec une pseudo-période de l'ordre de deux à quatre ans. Il existe aussi dans les tropiques des oscillations intrasaisonnières, dont les périodes sont de l'ordre de quelques décades ; elles sont caractérisées par la propagation d'amas convectifs vers l'est, de l'ouest de l'Océan Indien vers le Pacifique équatorial. Ces oscillations sont elles aussi liées aux interactions océan-atmosphère ; elles interagissent avec la mousson asiatique et avec El Niño, ce qui leur confère une importance particulière pour l'économie et pour la société, dans des régions où la population dépasse aujourd'hui les deux milliards d'individus.

Plus proches de nous, il faut citer l'Oscillation Nord-atlantique, qui se traduit par des modulations d'intensité du contraste entre les basses pressions d'Islande et les hautes pressions des Açores. Elle concerne plus particulièrement les conditions hivernales sur l'Europe, quand ces systèmes de hautes et basses pressions sont particulièrement actifs. Un anticyclone des Açores plus intense que la normale correspond à une ligne des tempêtes atteignant l'Europe du nord : le temps y est alors plus doux et humide, tandis qu'il fait anormalement sec et froid sur l'Europe du sud. C'est l'inverse quand l'anticyclone s'affaiblit : la ligne des tempêtes atteint plutôt l'Europe du sud, y apportant davantage de précipitations.

Une autre oscillation interne, à des échelles de temps beaucoup plus longues, est la possibilité de modulation de la circulation thermohaline, donc du flux de chaleur océanique et de la formation d'eau profonde dans l'Atlantique nord. La densification des eaux du surface dans la mer de Norvège et la mer du Labrador est sensible, par exemple, à l'apport d'eau douce par les précipitations et par les fleuves, ou encore, par la fonte partielle des glaciers ou des calottes glaciaires. Un réchauffement temporaire des moyennes et hautes latitudes boréales, en activant les précipitations et la fonte des glaces, tend normalement à faire baisser la salinité de l'Atlantique nord, donc à affaiblir la circulation thermohaline, ce qui entraîne un refroidissement de l'Atlantique nord et des régions continentales qui le bordent, plus particulièrement l'Europe. Nous avons encore ici la source d'oscillations possibles, qui pourraient intervenir dans un certains nombres de changements climatiques rapides du passé, comme le début de l'épisode du Dryas Récent, brusque récession vers le froid intervenue en quelques décennies au cours de la dernière déglaciation, il y a environ 13 000 ans, ou d'autres épisodes de la dernière glaciation connues sous le nom d'oscillations de Dansgaard-Oeschger. De tels épisodes pourraient se produire de la même manière lors d'un réchauffement climatique dû aux perturbations anthropiques actuelles. La vitesse de ces variations climatiques rapides semble avoir pu atteindre dans le passé des valeurs de l'ordre de 10°C en 50 ans ; c'est là un changement climatique intense à l'échelle d'une vie d'homme.

Oscillations forcées naturelles

Le système climatique nous apparaît donc comme un oscillateur assez complexe. Cet oscillateur a ses modes d'oscillation propres, dont nous venons de donner des exemples ; mais, bien sûr, il réagit aussi aux sollicitations externes.

Nous ne citerons que pour mémoire la dérive des continents qui, à l'échelle de quelques dizaines de millions d'années, change du tout au tout les climats régionaux et modifie même le climat global, par exemple en érigeant des montagnes, ou en limitant, voire en supprimant, la possibilités de formation de calottes glaciaires. Une Terre, par exemple, où les calottes arctiques et antarctiques seraient entièrement occupées par des océans ouverts ne connaîtrait sans doute pas de glaciations, les courants océaniques apportant suffisamment d'énergie jusqu'aux pôles.

À des échelles de temps moins longues, quelques dizaines de milliers d'années, la variabilité climatique a pour source principale les variations lentes de la distribution de l'insolation, due aux irrégularités du mouvement orbital de la Terre. Le mouvement de la Terre autour du soleil est en effet perturbé par l'attraction des autres planètes du système solaire. Il est possible, par des développements en série, de reconstituer ce mouvement de façon très précise sur des périodes de temps de quelques millions d'années. Les variations correspondantes de l'insolation sont entièrement définies par les variations dans le temps de trois paramètres : l' excentricité de l'ellipse, qui module le contraste entre une saison chaude globale où la Terre est proche du soleil, et une saison froide globale où elle est éloignée du soleil ; l' obliquité de l'équateur terrestre sur l'écliptique, qui module le contraste entre l'hémisphère d'été et l'hémisphère d'hiver ; et enfin, la précession, qui définit le déphasage entre la saison chaude globale et l'hiver ou l'été de l'un ou l'autre des deux hémisphères. L'excentricité varie entre 0 (cercle parfait) et 0,07, avec une période d'environ 100 000 ans. L'obliquité varie entre 22° et 25°, avec une période de 41 000 ans. La précession est un phénomène un peu plus compliqué : la précession astronomique est le mouvement de rotation de l'axe des pôles sur le cône de précession dont la période est 26 000 ans, auquel s'ajoute le mouvement de nutation ; mais pour arriver à ce que l'on appelle la précession climatique, c'est à dire à la phase des saisons le long de l'orbite, il faut aussi tenir compte de la rotation de l'orbite elle-même : d'où deux périodes principales de 19 000 ans et 23 000 ans.

Il est aujourd'hui universellement admis que les grandes variations du climat qui ont dominé les deux derniers millions d'années sont dues à ces variations orbitales et aux variations d'insolation qui en découlent. Les phénomènes les plus marquants sont les alternances d'époques glaciaires et interglaciaires, rythmés par la lente accumulation, puis la disparition relativement rapide d'énormes calottes de glace sur l'Amérique du Nord et le nord de l'Europe. Le dernier cycle glaciaire-interglaciaire a duré environ 120 000 ans. L'accumulation de glace sur les pôles est toujours lente, car il faut beaucoup de temps à l'atmosphère pour transporter de la vapeur d'eau en quantité suffisante aux hautes latitudes où l'air est froid et peu porteur d'humidité. Le retour à l'interglaciaire par fonte ou déstabilisation des calottes est beaucoup plus rapide. Nous nous situons aujourd'hui à la fin d'une période interglaciaire qui a débuté il y a environ 10 000 ans. Le dernier maximum glaciaire, c'est à dire l'époque où le climat a été le plus froid et où les calottes glaciaires ont atteint leur extension maximale, s'est produit il y a environ 20 000 ans. À cette époque, le Canada et le nord des États-Unis étaient recouverts par plus de trois kilomètres et demi de glace, et le nord de l'Europe et de la Russie, par plus de deux kilomètres de glace ! La température moyenne du globe était de cinq à six degrés plus basse qu'aujourd'hui, et les pôles étaient plus froids d'environ dix degrés. Juste après le retour à l'interglaciaire, il y a six à dix mille ans, le climat était légèrement plus chaud qu'aujourd'hui : la précession était telle que la Terre était proche du soleil durant l'été boréal (c'est le contraire actuellement) : les étés de l'hémisphère nord étaient donc plus chauds, les moussons africaines et asiatiques étaient plus intenses et pénétraient plus au nord dans les deux continents : le sud de ce qui est aujourd'hui le désert saharien était relativement verdoyant et peuplé d'animaux et de pasteurs, comme le rappellent les fresques du Tassili.

Nous disposons sur les quatre derniers cycles glaciaires-interglaciaires, c'est à dire sur les quatre cent ou cinq cent mille dernières années, de ces véritables archives de l'évolution du climat que sont les calottes glaciaires et les sédiments marins ou lacustres, que l'on explore par carottage, stratigraphie, analyse isotopique et analyse chimique. La teneur des glaces, par exemple, en isotopes lourds de l'oxygène et de l'hydrogène nous renseigne sur l'histoire du cycle de l'eau (marquée lors de l'évaporation par des fractionnements isotopiques), donc sur les températures, les précipitations et le niveau des mers, qui, il y a 20 000 ans, à l'époque des grandes calottes glaciaires, était 120 mètres en dessous du niveau actuel (on allait à pied sec de France en Angleterre, et de l'Asie continentale jusqu'à Java et Bornéo). Les fines bulles d'air prisonnières de la glace nous permettent de retrouver la composition chimique de l'air (en particulier sa teneur en gaz à effet de serre : dioxyde de carbone et méthane) au moment où la glace s'est formée, jusqu'à il y a plusieurs centaines de milliers d'années.

Ce que nous disent ces archives et les modélisations que l'on peut faire de l'évolution du climat sur ces périodes de temps, c'est que le système climatique se comporte comme un amplificateur des impulsions orbitales, grâce aux multiples rétroactions dues par exemple au cycle de l'eau : la formation de calottes glaciaires et l'accroissement du manteau neigeux, en renvoyant davantage d'énergie solaire vers l'espace, intensifient le refroidissement ; ou encore, dues au dioxyde de carbone et au méthane : la teneur de ces gaz dépend de l'activité biologique et diminue lors des baisses d'insolation, avec pour conséquence un affaiblissement de l'effet de serre et donc un refroidissement supplémentaire.

Une autre cause naturelle, externe, de variations climatiques, est l'activité même du soleil. La « dynamo » solaire est modulée par des cycles de 22 ans ; la luminosité varie, elle, suivant des cycles de 11 ans, car elle ne dépend pas du signe du champ magnétique. Les périodes d'activité maximale du soleil se manifestent par la multiplication de taches solaires (surcompensées par des facules ou plages extrêmement brillantes). Nous disposons d'observations quantitatives de l'évolution de l'activité solaire depuis la fondation de l'Observatoire de Paris dans la deuxième moitié du XVIIe siècle (apparition, disparition, nombre de taches, variations du diamètre du soleil qui varie en raison inverse de son activité). Nous savons ainsi que la deuxième moitié du XVIIe siècle a été une période d'activité solaire particulièrement faible, allant jusqu'à une disparition totale des taches durant des périodes de plusieurs années. Aujourd'hui, des radiomètres à cavité, embarqués sur des plate-formes spatiales, mesurent ces variations avec une grande précision en s'affranchissant des perturbations dues à l'absorption par l'atmosphère. Dans un cycle de 11 ans actuel, la luminosité solaire varie d'environ un Watt m-2 (sur une valeur moyenne d'environ 1368 Watts m-2) : ces modulations sont donc très faibles et ne peuvent donner lieu à des effets climatiques importants, d'autant plus que 11 ans est une durée trop brève pour perturber l'inertie thermique de l'océan.

On sait toutefois que l'activité solaire est modulée par des cycles plus longs que le cycle de 11 ans ; le plus court est le cycle de Gleisberg (environ 80 ans). Ces cycles peuvent avoir des influences climatiques plus fortes. Néanmoins, nous ne disposons pas encore de véritables modèles tridimensionnels de la dynamo solaire et nous ne savons pas reconstruire très précisément les variations de la luminosité au cours des derniers siècles. Des modèles simplifiés ont permis d'estimer la baisse de puissance du soleil au XVIIesiècle, époque dite du minimum de Maunder, à environ 0,4 %, ce qui donne une diminution du flux solaire absorbé d'environ un Watt par mètre carré pendant au moins un demi-siècle. Cette époque semble avoir été particulièrement froide, comme en témoignent les canaux gelés des peintures hollandaises, et diverses archives climatiques (notamment la dendroclimatologie qui étudie les variations de la croissance passée des arbres et les relie aux variations de température et de pluviosité). Néanmoins, nous ne sommes pas sûrs que le refroidissement observé, qu'on a appelé assez suggestivement « petit âge glaciaire », ait été un phénomène réellement global ; il pourrait bien s'être en fait limité à l'Europe.

Perturbations anthropiques

Nous nous étendrons peu ici sur les conséquences climatiques de l'effet de serre anthropique, dû à l'injection dans l'atmosphère de produits de la combustion et d'autres activités humaines : celles-ci font l'objet d'un autre exposé dans cette même série. On notera seulement qu'il faut toujours replacer ces effets, avec leurs propres constantes de temps (de quelques décennies à plusieurs siècles) dans le cadre des variations naturelles du climat, auxquelles elles se superposent et avec lesquelles elles peuvent interagir. Par exemple, nous nous dirigeons aujourd'hui naturellement vers une nouvelle glaciation qui devrait se développer progressivement dans les 100 000 ans qui viennent. Certaines études montrent que la modification de cette évolution naturelle par le réchauffement climatique dû aux hommes pourrait perdurer sur plusieurs milliers d'années.

Revenons au présent ou à un avenir plus proche. L'effet de serre n'est pas, et de loin, la seule perturbation d'origine anthropique. Les divers types de combustion, dont les sociétés modernes font un si grand usage, injectent aussi dans l'atmosphère, à doses plus ou moins grandes, des pollutions visibles sous forme d'aérosols, petites particules en suspension dans l'air, à base de carbone suie, de carbone organique, de dioxyde de soufre, etc. Beaucoup de ces particules ont des tailles de l'ordre des longueurs d'onde du rayonnement solaire : elles interceptent une partie de ce rayonnement et l'empêchent d'atteindre la surface, soit en le renvoyant vers l'espace, soit en l'absorbant : dans une atmosphère très polluée, la couche d'aérosols peut être assez dense pour masquer complètement le soleil un jour de beau temps. À l'opposite de l'effet de serre, les aérosols tendent ainsi à refroidir la surface, et donc le climat. Le fait que certains aérosols, les aérosols soufrés, sont hygroscopiques les rend aptes à jouer en plus le rôle de noyaux de condensation : à quantité donnée de vapeur d'eau, la présence d'une grande quantité d'aérosols soufrés multiplie donc le nombre de gouttelettes ; les gouttelettes qui se forment sont plus petites, elles se forment donc en plus grandes quantités et restent en suspension plus longtemps : un même volume de gouttes d'eau offre ainsi une surface réfléchissante plus grande et plus persistante. Cet effet refroidisseur supplémentaire est ce que l'on appelle l'effet indirect des aérosols soufrés.

Contrairement aux gaz à effet de serre, les aérosols ont une durée de vie courte. Ceux dont la durée de vie est la plus longue sont les aérosols stratosphériques naturels, injectés dans la stratosphère par les grandes éruptions volcaniques tropicales comme récemment, El Chichon ou le Pinatubo : ils sédimentent lentement et leur rôle de refroidisseur n'excède pas deux ou trois ans. Les aérosols soulevés par le vent dans les déserts, et les aérosols anthropiques restent pour l'essentiel dans les basses couches et la plus grande partie (notamment les aérosols soufrés) sont lessivés rapidement par les pluies. Leur durée de vie est de l'ordre d'une semaine, leurs panaches ont une extension limitée, contrairement au CO2, par exemple, qui est très bien mélangé dans l'ensemble de l'atmosphère. Néanmoins, ces panaches peuvent affecter notablement les climats régionaux. Pendant l'hiver 1999, la campagne INDOEX a étudié le panache issu de l'Inde et de l'Asie du Sud, qui, poussé par les vents de nord-est, s'étale de décembre à mars sur tout le nord de l'Océan Indien, jusqu'à la ligne des grands systèmes convectifs située vers 5 à 10°S, où la plupart sont lessivés. Le contraste est impressionnant, entre l'atmosphère lourdement polluée au nord de cette ligne convective, et l'atmosphère très pure située au sud. INDOEX a montré que ces pollutions régionales modifiaient fortement le bilan radiatif à la surface, créant des déficits d'énergie à la surface de la mer de l'ordre d'une vingtaine de Watts par mètre carré ; ceci doit entraîner des perturbations notables de l'interaction océan-atmosphère, en particulier des déficits d'évaporation pouvant influencer les précipitations dans des endroits très éloignés. Certaines études ont montré que de même, pendant l'été, la pollution émise sur le sous-continent indien influençait négativement les précipitations de mousson, parce qu'elle limite l'excédent énergétique à la surface qui est le véritable moteur de la saison des pluies. Le problème est évidemment que la pollution, comme l'effet de serre, est directement liée au développement et à l'explosion démographique. Les effets climatiques étudiés par INDOEX ne pourront que croître très fortement dans les décennies à venir, même si des mesures anti-pollution commencent à être mises en Suvre.

Enfin, on ne peut pas parler des perturbations climatiques liées à l'activité humaine sans évoquer, au moins brièvement, l'évolution du climat du Sahel. Les années soixante-dix ont été marquées par une baisse catastrophique des précipitations dans la bande sahélienne. Cette évolution fut vraisemblablement due, en partie à des causes naturelles, en partie à des causes anthropiques.

Les causes naturelles peuvent être rapportées aux interactions océan-atmosphère. On a vu que les précipitations tropicales (la saison des pluies) étaient liées aux branches ascendantes des circulations en rouleaux. Celles-ci se développent au dessus des continents, là où l'énergie solaire reçue est maximale, et, au dessus des océans, là où la température de la mer est particulièrement élevée. On conçoit que ces deux mécanismes puissent interférer, et qu'une anomalie d'eau chaude sur l'océan, en créant de nouvelles ascendances et de nouvelles subsidences, puisse accentuer ou limiter les ascendances continentales. C'est ce qui se produit avec El Niño, qui entraîne des sécheresses sur l'Indonésie, l'Australie, le Mozambique et le Nordeste brésilien, ainsi que des moussons généralement médiocres sur l'Inde. De même, il existe de fortes corrélations entre certaines anomalies de température océanique, et les sécheresses sahéliennes. Ceci dit, la région continentale où les pluies sont les mieux corrélées aux températures de l'océan semble bien être le Nordeste brésilien, qui réagit à la fois, aux oscillations El Niño-La Niña à l'ouest, et aux oscillations nord-sud des températures de l'Atlantique tropical, à l'est. Les modèles de circulation générale de l'atmosphère simulent très bien ce genre de relations.

Mais pour en revenir au Sahel, le comportement des hommes semble aussi avoir joué son rôle. La destruction de la végétation par le surpâturage conduit à une augmentation de la réflectivité de la surface, et donc à une moindre absorption de l'énergie solaire. De là, comme nous l'avons déjà expliqué, un affaiblissement de la saison des pluies, qui renforce la tendance à la désertification : on retrouve ici encore, une de ces rétroactions qui rendent le système climatique si sensible aux perturbations externes. D'une façon beaucoup plus générale, il est clair que le développement de nos civilisations s'est toujours accompagné de déforestation intensive liée aux pratiques agricoles, à la navigation ou à la construction : dans l'antiquité, tout le pourtour de la Méditerranée ; au Moyen Âge, l'Europe ; au siècle dernier, l'Amérique du Nord ; l'Inde aussi au cours des siècles passés ; et aujourd'hui, l'ensemble des forêts équatoriales, de l'Indonésie à l'Amazonie en passant par l'Afrique. L'évolution des climats n'a certes pas été insensible à toutes ces perturbations.

 

 VIDEO     canal U       LIEN

TOUT L'UNIVERS DANS UN ATOME

il y a 4 mois

Tout lunivers dans un atome
Gerardus t Hooft

Dans cet exposé, je vais expliquer que lunivers gigantesque dans lequel nous vivons abrite un nombre incroyable de minuscules univers : les atomes. Ils présentent une structure extrêmement riche qui a permis aux physiciens dexercer leur sagacité durant tout le siècle précédent. Le sujet de cet exposé est cet univers microscopique que lon trouve à lintérieur des atomes mais il est intimement relié à lunivers macroscopique qui nous est rendu plus familier par les images des médias comme celle de la conquête spatiale.

Au début nexistait quun point, et rien dautre que ce point. Il y a plus de 13 milliards dannées, ce point explosa, marquant le début de lunivers tout entier. Depuis ce moment, lunivers est régi par les lois de la physique. Lors de ses premiers instants, il évolua extrêmement rapidement. Des choses complexes arrivèrent alors, que lon comprend difficilement.

La première lumière de lunivers, que lon observe maintenant, est apparue 380 000 ans après cette explosion. Ce nest quun milliard dannées plus tard que lunivers commence à ressembler à ce quil est aujourdhui : un univers constitué détoiles, situées à lintérieur de galaxies séloignant les unes des autres.

Deux choses remarquables caractérisent lunivers. La première, cest quil est presque vide : il existe de grands espaces désertiques entre les étoiles et les galaxies, de telle sorte quen moyenne, lunivers présente une densité de quelques atomes seulement par kilomètre cube. La deuxième, cest que tous les objets de lunivers obéissent aux lois de la physique de manière extrêmement précise. Des expériences de toutes sortes, ainsi que des calculs complexes établissent une chose qui nétait pas évidente a priori : les lois de la physique semblent partout les mêmes, peu importe la direction dans laquelle on observe lunivers. Lune de ces lois est celle de la gravitation. Cest elle qui fait que les planètes décrivent autour du soleil des ellipses presque parfaites. Elle implique également que les planètes accélèrent à proximité du soleil et décélèrent quand elles sen éloignent. Il sagit dune loi parmi dautres mais dont les effets sont clairement visibles.

Lunivers compte un nombre démesurément grand datomes et dans ces mondes minuscules que sont les atomes, on trouve des objets, les électrons, qui se déplacent selon des lois physiques ressemblant beaucoup à celles régissant le mouvement des planètes autour du soleil. Les électrons tournent autour dun objet central que lon appelle le noyau atomique. Latome constitue ainsi un univers à lui tout seul, mais avec des dimensions minuscules.

La structure de latome

Dire quun atome peut être assimilé à un système planétaire serait en fait mentir. Latome est gouverné par des lois beaucoup plus complexes, celles de la mécanique quantique. Celle-ci dit quen moyenne, les électrons se déplacent selon des orbites elliptiques ; mais cela en moyenne seulement. Leur mouvement est en fait aléatoire, il semble incontrôlé. Autour dun noyau, certaines régions sont dépeuplées délectrons alors que dautres en fourmillent. Ce sont les lois de la mécanique quantique qui permettent de faire la distinction entre ces régions.

Latome possède une autre caractéristique qui le rapproche de lunivers : il est quasiment vide. En effet, le noyau atomique est environ 100 000 fois plus petit que les orbites des électrons, ce qui rend latome beaucoup plus vide en réalité quun système planétaire. Cest ce noyau, dont lunité de taille est le Fermi, 10-15 m, qui est la partie la plus intéressante et la plus complexe de latome.

Il y a plusieurs décennies, les physiciens découvrirent que le noyau atomique est constitué de deux sortes dobjets : les protons et les neutrons. Les premiers sont électriquement chargés alors que les seconds sont neutres, mais hormis cette différence, ces deux objets sont similaires. Ce qui a été découvert plus récemment dans lhistoire de la physique des particules est quils sont tous les deux constitués de trois sous-unités appelées quarks. Ces derniers obéissent à des lois très particulières qui seront évoquées plus loin.

Il y a 35 ans lexistence des quarks était à peine vérifiée. On ne comprenait pas leur comportement, ni pourquoi protons et neutrons étaient constitués de trois dentre eux. Toutes les particules observées à lépoque étaient cependant regroupées en plusieurs classes, de la même façon quen biologie les espèces danimaux et de plantes sont classées en familles. Il existait une distinction entre les leptons, particules insensibles à ce qui fut appelé plus tard la force forte, et les hadrons, qui y étaient sensibles et avaient donc un comportement totalement différent. Les hadrons furent ensuite séparés entre mésons et baryons. Enfin, il existait une troisième sorte de particules, les photons, qui avec leur comportement radicalement différent des autres, constituaient une famille à eux seuls.

Les leptons, dont on connaissait deux représentants à lépoque, électrons et muons, peuvent être chargés électriquement, le plus souvent de manière négative, ou bien être neutres : on les appelle alors neutrinos. De manière générale, les particules sont caractérisées par leur charge électrique ainsi que par leur spin, propriété liée à leur rotation. Elles sont également accompagnées de leurs « contraires », si lon peut dire, leurs antiparticules. Il existe ainsi des antileptons et des antibaryons. Les mésons, eux, sont identiques à leurs antiparticules.

Beaucoup de questions émergent de cette classification : Comment peut-on expliquer le comportement de toutes ces particules ? Comment peut-on les décrire ? Enfin, comment sagencent-elles pour former les atomes ? Pour répondre à ces questions, il a été nécessaire de les étudier.

Les outils pour étudier la structure de latome

Pour étudier les atomes, il a été nécessaire de construire de très grandes machines, les accélérateurs de particules. Lun deux est situé à la frontière de la Suisse et de la France, près de Genève. Sil nétait pas situé sous terre, parfois à cent mètres de profondeur, dun avion on pourrait constater quil a la forme dun cercle de 26 km de circonférence. Il sagit dun circuit que des particules parcourent chacune dans un sens opposé pour se heurter de plein fouet. Les investigations des physiciens concernent ce qui se déroule lors de telles collisions. Cette machine appelée LEP, pour Large Electron-Positron Collider, a été démontée il y a quelques années pour être remplacée par une autre machine, le LHC, acronyme pour Large Hadron Collider. La première a intensivement étudié les leptons, comme lélectron et son antiparticule, alors que la nouvelle génération daccélérateurs étudiera les hadrons. Les physiciens doivent cependant attendre encore plusieurs années avant de recevoir les premiers résultats du LHC, prévus en 2007.

La photographie (fig.1) représente un des nombreux détecteurs de particules utilisés dans les accélérateurs. Comparés à la taille dun homme, ces objets sont particulièrement grands. Ceci est une source de questionnement pour les néophytes : pourquoi nutilise-t-on pas de petits détecteurs pour étudier des particules si minuscules ? Ny gagnerait-on pas en résolution ? Il se trouve que non. Pour bien voir de petits objets, il faut de grosses machines. Par exemple, on pourrait penser que les insectes, avec leurs petits yeux, se voient très bien. Cest tout le contraire. Nous voyons beaucoup mieux les insectes quils ne se voient eux-mêmes, car nos yeux sont beaucoup plus gros que les leurs. Cest pour cela que les insectes ont des antennes, comblant ainsi leur déficit sensoriel. Ainsi, former des images de minuscules particules nécessite dénormes appareils. Les physiciens, qui cherchent à sonder la matière le plus profondément possible, doivent par conséquent construire les machines les plus imposantes qui soient& tout en respectant un certain budget.

figure 1
Les forces dinteractions et les particules de Yang-Mills

Revenons encore trente cinq ans en arrière. A cette époque, il fallait comprendre leurs interactions pour pouvoir décrire les particules & Quelles soient déviées, crées ou annihilées, les physiciens ont réuni tous ces phénomènes dans le concept de force. Ils ont ainsi découvert que trois sortes de forces totalement différentes agissaient sur les noyaux atomiques. Lune delles est assez familière, il sagit de lélectromagnétisme. Cest la force qui est utilisée de manière prédominante dans les microphones et les télévisions. Les uns utilisent la force électromagnétique pour amplifier la voix, les autres pour créer une image sur lécran. De manière plus simple, on peut voir leffet de cette force quand un aimant se déplace à proximité dun autre aimant, ou dun objet en fer. Ou bien même quand on se coiffe par temps sec et que les cheveux sélectrisent. Il existe également deux autres forces actives dans le domaine des particules élémentaires : la force forte et la force faible. On connaissait peu de leurs propriétés il y a 35 ans, et par bien des aspects, elles restaient énigmatiques : comment affectent-elles le comportement des particules ?

Il est très difficile de répondre à cette question. On savait quelles devaient obéir à la fois à la théorie de la relativité dEinstein et aux lois de la mécanique quantique. Mais ces lois sont complexes, et il est très difficile de les réconcilier pour que les mouvements observés des particules respectent ces deux théories fondamentales. Ce nest quen 1954 quune avancée fut effectuée. Deux physiciens américains, Robert-Mills, étudiant à lépoque et Chen Ning Yang, futur prix Nobel, proposèrent ensemble une façon de décrire les particules subatomiques. Leur réflexion fut la suivante : certaines forces de la nature sont déjà connues, les forces électromagnétiques ; peut-on imaginer une nouvelle force, quelque chose de plus général que lélectricité et le magnétisme, quon pourrait décrire avec des équations similaires et qui serait cohérente avec les connaissances acquises par ailleurs en physique ? Ils trouvèrent une réponse à cette question mais ils se rendirent compte très tôt quelle était probablement erronée. Beaucoup de physiciens avaient eu des idées similaires mais les avaient rejetées car ils ne leur trouvaient aucun sens. Peut-être navaient-t-elles aucun sens mais elles étaient tellement belles quils publièrent néanmoins leurs travaux, malgré les critiques de leurs pairs, laissant aux autres le soin de sinquiéter du fait quelles naient rien de réel.

Quont-ils donc inventé qui allait devenir si important, seulement quelques décennies plus tard ? Yang et Mills imaginèrent quil existait un autre champ, ressemblant beaucoup aux champs électriques et magnétiques, mais qui en serait également différent par certains aspects : une particule évoluant dans un tel champ changerait didentité. Au passage, rappelons que lidentité est une caractéristique essentielle des particules : la modifier a dénormes conséquences sur leur comportement. Un champ électromagnétique naltère pas cette identité, mais Yang et Mills imaginèrent quune particule puisse transmuter en une autre quand elle traverserait le champ quils ont décrit. Un proton, par exemple, deviendrait neutron. Le point fondamental est que deux particules initialement identiques pourraient ainsi devenir différentes.

 

  VIDEO       CANAL  U         LIEN

La musique pour soigner la mémoire

il y a 4 mois

Grâce aux travaux des neurosciences, on sait aujourd'hui que l'exposition à la musique a des effets positifs sur la mémoire, notamment chez les personnes atteintes d'Alzheimer. Le point sur les dernières découvertes, à l'occasion de la 2e édition de la Semaine de la mémoire à Caen et à Bordeaux.
La musique aurait-elle ce pouvoir extraordinaire de s’enraciner profondément dans notre mémoire et de réactiver des capacités cognitives qu’on croyait perdues à jamais ? Dans les institutions qui accueillent les malades d’Alzheimer, il est fréquent de voir des patients entonner avec une vitalité inattendue La Java bleue et autres chansons apprises dans leur jeunesse, alors qu’ils ne se souviennent plus de leur prénom. Dans le même registre, les cliniciens ont depuis longtemps constaté que certaines personnes victimes d’accident vasculaire cérébral (AVC) atteintes d’aphasie (troubles de la parole) étaient capables de fredonner les paroles de leurs chansons favorites sans difficulté d’élocution ou encore que des patients atteints par la maladie de Parkinson parvenaient à se déplacer lorsqu’ils synchronisaient leur marche sur un rythme ou un tempo musical. Comment expliquer ce phénomène ?

Le son traité de manière automatique par le cerveau

« Lorsque la musique nous parvient, précise Emmanuel Bigand1, professeur de psychologie cognitive à l’université de Bourgogne et directeur du Laboratoire d’études de l’apprentissage et du développement2, notre cerveau l’interprète à une vitesse de 250 millièmes de seconde, au cours de laquelle se joue une véritable symphonie neuronale. » Concrètement, le son est d’abord traité par le système auditif, puis interviennent différentes aires cérébrales impliquées dans la mémoire, les émotions, la motricité (la musique nous donne envie de battre du pied), le langage… sans compter l’activation des circuits neuronaux de la récompense (production de la dopamine) lorsque nous écoutons une musique plaisante.

Musicothérapie et Alzheimer Le son est d’abord traité par le système auditif (en rouge sur cette IRM), puis par les aires cérébrales impliquées dans la mémoire, les émotions, la motricité (la musique nous donne envie de battre du pied), ou encore le langage.

La musique est traitée par notre cerveau de manière automatique, sur un mode involontaire, et stockée dans notre mémoire « implicite ». « Beaucoup de nos connaissances et de nos représentations musicales sont acquises par exposition naturelle, précise Emmanuel Bigand. Bien avant de naître, le bébé mémorise les œuvres musicales et est capable de les reconnaître un an après sa naissance, sans les avoir réentendues. À l’autre extrémité de la vie, même lorsque les activités linguistiques disparaissent, notamment aux stades avancés de la maladie d’Alzheimer, la musique reste accessible. Non seulement, elle redonne le goût de communiquer, de sourire et de chanter, mais elle parvient à réveiller la mémoire et les événements qui lui sont associés. »

La mémoire
musicale active les
deux hémisphères,
notamment la
région de Broca :
celle du langage.


Hervé Platel3, professeur de neuropsychologie à l’université de Caen, est l’un des premiers chercheurs, dans les années 1990, à avoir observé le cerveau exposé à la musique. Grâce à l’imagerie par résonance magnétique (IRM), il a identifié les réseaux du cerveau impliqués dans la perception et la mémoire musicale. Jusqu’alors, et de manière empirique, on considérait que le cerveau gauche était celui du langage (notamment l’aire de Broca et de Wernicke) et le droit, celui de la musique, or c’est plus compliqué que cela.

La mémoire musicale partage ainsi avec celle des mots des zones de l’hémisphère gauche qui permet notamment de nommer le nom de l’œuvre musicale, alors que l’hémisphère droit assure l’analyse perceptive (on reconnaît une mélodie). « Cette spécificité confère à la mémoire musicale, une supériorité par rapport à la mémoire verbale, détaille le chercheur. Lorsqu’un malade présente une lésion à l’hémisphère gauche (langage), les aires homologues droites ne compensent généralement pas ce déficit. En revanche, le malade pourra généralement toujours percevoir, mémoriser la musique (sans la nommer) et en retirer du plaisir. »

Une persistance étonnante chez les malades d’Alzheimer

Cette persistance de la mémoire musicale s’observe particulièrement chez les malades d’Alzheimer, y compris dans les situations d’apprentissage. Des travaux réalisés par l’équipe d’Hervé Platel, en collaboration avec le docteur Odile Letortu, médecin dans l’unité Alzheimer de la maison de retraite Les Pervenches (Calvados), ont en effet montré que des patients (cas modérés et sévères de la maladie) a priori incapables de mémoriser une nouvelle information réussissaient à apprendre des chansons nouvelles (d’une dizaine de lignes) en moins de huit semaines (huit séances d’une heure tente). Et fait encore plus étonnant : certains d’entre eux s’en souvenaient et pouvaient entonner les mélodies quatre mois après l’arrêt de l’atelier.

Ces résultats ont conduit les chercheurs caennais à répliquer l’expérience. Ils ont fait écouter à des malades de nouveaux extraits musicaux et verbaux (poèmes et livres audio) pendant huit jours (à raison d’une fois par jour). Et, une fois encore, ont constaté que « les malades éprouvaient un sentiment de familiarité avec les mélodies écoutées deux mois et demi plus tôt, détaille le chercheur. En revanche, ils ne gardaient plus aucun souvenir des poèmes et des histoires entendus, ce qui confirme l’étonnant pouvoir de la musique à s’inscrire durablement dans le cerveau ».

Musicothérapie et Alzheimer Des patients atteints de la maladie d'Alzheimer, a priori incapables de mémoriser une nouvelle information, réussissent à apprendre des chansons nouvelles.

Une étude incluant un groupe de 40 malades d’Alzheimer (stades modérés et sévères) et un groupe de 20 patients appareillés est en cours pour identifier les aires impliquées dans l’acquisition de nouvelles informations. « La question qui se pose, s’interroge Hervé Platel, qui pilote cette recherche avec la chercheuse Mathilde Groussard, est de savoir si cette capacité d’apprentissage est liée aux zones cérébrales qui fonctionnent encore ou à un circuit de mémoire alternatif qui prendrait le relais. »

La musique contre le vieillissement cérébral

Quoi qu’il en soit, la mise en évidence de ces étonnantes aptitudes musicales chez les patients atteints par la maladie d’Alzheimer a favorisé la mise en place de nouvelles méthodes de prises en charge. Certaines structures d’accueil proposent désormais des dispositifs fondés sur la familiarisation comme l’utilisation d’une mélodie chantée familière pour aider à la ritualisation de l’activité toilette, ou la mise en place de bornes de musique spécifique à chaque salle d’activité afin d’aider les patients à se repérer dans l’espace et dans le temps.

Les sujets âgés
ayant une pratique
musicale de
quelques années
ont moins
de risque de
développer une
maladie neuro-
dégénérative.


Mais pour autant, peut-on parler d’effets thérapeutiques ? De nombreux travaux indiquent que, en cas de lésions cérébrales, la sollicitation des aires cérébrales impliquées dans le traitement de la musique avait un effet positif sur les aptitudes cognitives (attention, mémoire, traitement du langage) et contribuait à favoriser la plasticité cérébrale. « La répétition de stimuli musicaux contribue à favoriser les échanges d’informations entre les deux hémisphères et à augmenter le nombre de neurones qui assure cette communication, ce qui a pour effet de modifier la structure du cerveau. Chez les musiciens, ces modifications se traduisent par des changements visibles, sur le plan anatomique par exemple : une plus forte densité du corps calleux (réseau de fibres qui relient les deux hémisphères) par rapport aux non-musiciens », note Emmanuel Bigand.

En 2010, Hervé Platel et Mathilde Groussard ont pour la première fois mis en évidence l’effet de la pratique musicale sur la mémoire. Ils ont observé chez les musiciens une plus forte concentration de neurones dans l’hippocampe, région des processus mnésiques.

« Ce résultat confirme que la pratique de la musique stimule les circuits neuronaux de la mémoire et suggère qu’elle permettrait de contrer efficacement les effets du vieillissement cérébral. Plusieurs études ont ainsi montré que les sujets âgés ayant une pratique musicale de quelques années ont moins de risque de développer une maladie neurodégénérative », souligne le chercheur.

Des bénéfices à tous les âges

De même, la musique a des effets sur les aphasies (perte de l’usage de la parole) majoritairement consécutives aux AVC. En 2008, l’équipe de Teppo Sarkamo, du Centre de recherche sur le cerveau, à Helsinki, en Finlande, mettait en évidence les effets de récupération du fonctionnement cognitif et émotionnel de l’écoute musicale chez les victimes d’AVC.

Des travaux similaires ont lieu actuellement au CHU de Dijon sur l’impact d’une stimulation musicale précoce chez les patients touchés par un AVC. « Les premières observations montrent non seulement que les patients éprouvent du plaisir à écouter des musiques qui leur rappellent des souvenirs, mais qu’ils se mettent spontanément à fredonner ces mélodies, explique Emmanuel Bigand, qui pilote cette recherche. Cette réaction pourrait faciliter la réorganisation fonctionnelle indispensable à la restauration des compétences linguistiques. »

Alors devrions-nous tous écouter de la musique en boucle, chanter ou pratiquer un instrument pour stimuler notre cerveau et l’aider à lutter contre le vieillissement ? « Cela ne fait aucun doute », répondent de concert les chercheurs. « Les bénéfices sur le fonctionnement cognitif global du cerveau peuvent être observés à tous les âges, y compris chez les personnes âgées qui débutent tardivement la musique », précise Emmanuel Bigand, qui milite pour que, au même titre que le sport, la musique soit enseignée dès le plus jeune âge.

À lire aussi sur notre site : "Dans la tête de Dory, le poisson amnésique"

La Semaine de la mémoire, du 19 au 25 septembre 2016, à Caen (link is external) et à Bordeaux et sa région (link is external)
Une semaine en compagnie de chercheurs venus du monde entier pour partager les recherches et les découvertes sur la mémoire auprès du grand public.



Notes
1. Il a coordonné l’ouvrage Le Cerveau mélomane, paru en 2014 aux éditions Belin.
2. Unité CNRS/Univ. de Bourgogne.
3. Chercheur au laboratoire Neuropsychologie et imagerie de la mémoire (Inserm/EPHE/Unicaen), à l’université de Caen. Il est coauteur avec Francis Eustache et Bernard Lechevalier de l’ouvrage Le Cerveau musicien, paru en 2010 aux éditions De Boeck.

DOCUMENT cnrs LIEN

HEIDEGGER, L’ART, LA TECHNIQUE (PAR JEAN-FRANÇOIS COURTINE)

il y a 5 mois

HEIDEGGER, L’ART, LA TECHNIQUE (PAR JEAN-FRANÇOIS COURTINE)


Conférence de Jean-François Courtine
Heidegger, l’art, la technique
Résumé de la première séance
(lundi 3 février 2014)

Dans cette première séance, il s’est agi de montrer en quoi la pensée de Heidegger sur l'essence de la technique était redevable  aux deux essais de Ernst Jünger sur la « totale Mobilmachung » (La Mobilisation totale 1930, traduit par Marc Buhot de Launay dans L'État universel,  TEL, Gallimard, 1990) et sur la figure du travailleur (Le Travailleur, 1932, traduit par Julien Hervier, Christian Bourgois, 1989). Ces essais témoignent de l'acuité du regard de l'écrivain allemand sur le monde moderne dominé par la technique. Jünger – alors auteur connu pour ses célèbres récits de guerre, Les orages d'acier, Le Boqueteau 125 etc. – y met en lumière certains traits de la technique moderne qu’il analyse sous l’angle de la « mobilisation du monde par la figure du Travailleur ». Cette « figure » (all. die Gestalt) du « Travailleur » (all. der Arbeiter) est à concevoir comme un nouveau type humain propre à l'époque moderne. C’est un type universel qui ne saurait être rapporté à une classe sociale au sens où l’entendait Marx (et les courants de pensée qui s’en réclament auxquels Jünger s’opposait). La figure du « Travailleur » serait plutôt, ainsi que devait le remarquer Heidegger plus tard, « une sobre dénomination de ce que Nietzsche appelle le surhomme » [GA 90, p. 257]. 
Quoi qu’il en soit, pour Jünger, le formidable bouleversement qui s’était accompli avec la Grande Guerre exigeait un nouveau regard, une nouvelle manière de voir clair dans ce qui est. Avec la guerre industrielle et totale, c’est le « caractère de puissance inhérent à la technique » qui se serait dévoilé. Jünger aborde ce phénomène de la technique moderne en en excluant « tout élément économique  ou progressiste » (Le Travailleur, p. 207). Ce processus dynamique de la « mobilisation totale » sous la figure du « Travailleur » a encore pour caractéristique d’échapper à tout contrôle et pour conséquence de  transformer le monde d'un côté en un « gigantesque chantier perpétuel » et de l'autre en « un musée » (ibid. p.253). Dans cette perspective, une mobilité sans limites (ni dans le temps, ni dans l’espace) et un incessant affairement organisationnel créent « un mode de vie [qui] ressemble […] à une course mortelle où il faut bander toutes ses énergies pour ne pas rester sur le carreau » (ibid. p.223).
Dans  un deuxième temps, on s’est efforcé de montrer en quoi la réflexion heideggérienne sur la technique se distinguait de celle de Jünger [1]. On a ainsi rappelé que, mu par la relecture/réinterprétation de l’œuvre de Nietzsche et par ses analyse du "nihilisme" comme trait de l'époque contemporaine,  Heidegger avait articulé certains aspects de la description de Jünger  à sa propre conception de l'histoire de la métaphysique entendue comme « histoire de l'être » (Seinsgeschichte). Il a alors été question plus particulièrement d’un "concept" clé de la réflexion de Heidegger, celui de la Machenschaft  – un mot qu’on rend d’ordinaire par "machination", "manœuvre", "manigance", mais qui désigne dans le contexte le "règne de l'efficience", de la "faisabilité". Le mot est formé à partir du verbe allemand machen "faire".   
La Machenschaft préfigure et annonce, dans le cheminement heideggérien, le fameux Gestell – "dispositif d'arraisonnement" ou "dispositif", autre « Grundwort » (terme fondamental) qui désigne, à partir de la fin des années 1940, « l'essence de la technique » (das Wesen der Technik). Dans cette dernière expression, il faut souligner que Wesen (essence) ne doit pas être compris de la  manière abstraite et anhistorique qui est traditionnellement associée à la notion d’essence ou d’essentia. Au contraire, dans l’usage qu’en fait Heidegger, Wesen doit être entendu comme ce qui porte, de manière sous-jacente et immédiatement inapparente, le déploiement du phénomène auquel il est associé (ici la technique) et ce dans une temporalité spécifique, en l’occurrence celle de l'être, temporalité qui diffère de la conscience historique que les hommes en ont. 
Cette analyse de la Machenschaft a été esquissée en fin de séance à partir de la lecture du début du § 61 des Beiträge zur Philosophie (traduit en français récemment sous le titre: Apports à la Philosophie, cf. texte 1 de l'exemplier distribué). L'accent a été mis sur un paradoxe tout à fait surprenant : ce qui étend son règne sans partage aujourd'hui, à savoir le déferlement planétaire de la toute puissance de la technique (et les types de rapports au monde et à ce qui est qui en est induit), aurait son noyau germinatif dans une « décision » [2] de la philosophie grecque, décision qui se lit dans les œuvres de Platon et d’Aristote [3] réinterprétées en la circonstance (non sans une certaine violence herméneutique) par Heidegger. Cette « décision » aurait tenu dans le fait de penser la « nature » (en grec, la phusis, φύσις) à l'horizon de la technè (« le « savoir faire », « l’art » gr. τέχνη) comme « fabriquer », comme « faire humain ». Ce moment  originaire de la Machenschaft aurait constitué le premier temps d’une Entmachtung de la phusis (comprendre « d’une "dépotentialisation" », « de l'évidement du pouvoir de la nature », de son « émasculation », pourrait-on presque dire en forçant le trait). Cette Entmachtung de la nature ne se peut comprendre que relativement à la conception de la phusis qui, selon Heidegger, prédominait chez les premiers penseurs grecs avant donc Platon et Aristote. Chez ces penseurs qualifiés significativement par Aristote de « physiologues », (oi phusiologoi = « ceux qui parlent de et à partir de la nature »), dominait la représentation d’une phusis sur-puissante  (übermächtig) à ce point que toute pensée (noein, νοεῖν) et toute parole (logos, λόγος) étaient éprouvées comme appartenant au déploiement essentiel de la phusis (exemplier, texte n°3).

En contrepoint, on peut aussi se faire une idée de la « surpuissance » de la nature en prenant la mesure de la violence et du pouvoir propres de la technè qui y répond en relisant avec les lunettes de Heidegger (et de Hölderlin – cf. GA 40, p.168, texte 5 de l'exemplier, v. aussi le cours sur « L’Ister » GA 53, été 1942)  le premier Stasimon (« chant » qu’exécutait le chœur dans la Tragédie antique) de l’Antigone de Sophocle. Heidegger commente en effet « τὸ μηχανόεν τέχνας [...] ἔων » des v. 364-365 en s’appuyant sur ce terme de Machenschaft qu’il comprend en un sens « non péjoratif » comme ce « qui s’annonce à nous dans le mot grec τέχνη », lequel est un « savoir [Wissen] » qui « consiste à pouvoir “mettre-en-œuvre” l’être au titre d'un étant à chaque fois tel et tel ». À ce stade, la puissance ou le pouvoir violent de la τέχνη ne dégénère pas encore en puissance sans mesure, en violence déchainée ou en sauvagerie barbare.  C’est en ce point que se noue le lien entre la réflexion sur la Machenschaft et la τέχνη  d’un côté et la pensée  heideggérienne de l'œuvre d'art de l’autre.Ce serait donc dans ce premier pas encore imperceptible, dans ce  “premier commencement” que, de manière “destinale”, se serait  amorcé ce qui ne se réalisera pleinement que bien plus tard comme accomplissement de la métaphysique : le règne de l’essence de la technique moderne. Cet empire de la Machenschaft, devenu celui du Gestell, s’atteste notamment dans le fait que, pour l'homme contemporain, il n'y a plus d'objets, autrement dit plus de choses qui lui font face (en allemand, Gegenstände). L’homme arraisonné par le Dispositif a affaire désormais à des choses qu’il a toujours déjà prises en vue comme fonds ou  stock disponible  (en allemand, Bestände) : « Ce qui se tient au sens du fonds disponible [Bestand]  ne se tient plus en nous faisant face comme objet [Gegenstand] [GA 7, 17- Essais et conférences,  « La question de la technique », p. 23]. La sur-puissance initiale de la nature, vidée de sa puissance propre (l’Entmachtung) est, au terme du processus, supplantée par la “puissance de sommation” du Gestell. Cette puissance n’est pas le fait de quelques uns (les « chefs » ou tous ceux qui croient pouvoir en contrôler le déchaînement). Le danger qui menace essentiellement l’homme est qu'il n’atteigne pas son propre  (ni dans son agir, ni dans sa parole, ni dans rapport aux choses) et soit exproprié de son être.

 

 VIDEO       CANAL  U         LIEN

Projection du son la supériorité des Stradivarius remise en question

il y a 5 mois


Paris, 8 mai 2017
Projection du son : la supériorité des Stradivarius remise en question

Des chercheurs de l'Institut Jean Le Rond d'Alembert (CNRS/UPMC) ont montré que les violons récents ont une meilleure projection du son1 que les violons fabriqués par le célèbre luthier Antonio Stradivarius. Cette étude, publiée dans la revue PNAS le 8 mai 2017, révèle également qu'en dépit du prestige de ces anciens violons italiens, les auditeurs préfèrent le son produit par les instruments récents et ne peuvent différencier les deux catégories de violons.
La projection du son est la capacité d'un instrument à remplir l'espace lors d'un concert, à porter jusqu'au fond d'une salle ou à passer au-dessus d'un orchestre. Elle est particulièrement  importante par les solistes. La projection des violons italiens des XVIIe et XVIIIe siècles, et notamment celle des Stradivarius, est souvent considérée comme supérieure à celle des violons plus récents. L'équipe de recherche dont fait partie Claudia Fritz, chercheuse CNRS à l'Institut Jean Le Rond d'Alembert (CNRS/UPMC)2, en collaboration avec le luthier américain Joseph Curtin, a donc voulu vérifier cette supériorité présumée lors de deux expériences ayant fait appel à 137 auditeurs : 55 dans un auditorium à Paris, 82 dans une salle de concert newyorkaise. Les auditeurs devaient juger neuf paires de violons - constituées d'un violon ancien et d'un violon récent3 – suivant deux critères : la préférence personnelle et la projection sonore. Afin de ne pas influencer les jugements, les expériences ont été menées en double aveugle, en dissimulant la nature de chaque instrument aux violonistes et au public.

Les résultats de l'étude montrent qu'en moyenne, les auditeurs préfèrent les violons récents aux Stradivarius et trouvent qu'ils projettent davantage. De plus, à l'instar des violonistes, l'auditoire ne parvient pas à distinguer systématiquement les deux types de violons. Deux études menées en aveugle par la même équipe, en 2010 et en 2012, avaient en effet montré que les violonistes préféraient les instruments récents aux célèbres violons italiens, en étant toutefois incapables de les différencier.

Cette étude révèle que, contrairement aux idées reçues, les solistes auraient intérêt à privilégier les violons récents pour leurs concours, leurs auditions et leurs concerts, à condition que la provenance de leur instrument reste inconnue du jury et des auditeurs. Par ailleurs, inciter les violonistes à effectuer des tests en aveugle leur permettrait de porter leur choix sur un instrument sans être influencés par le prestige associé à un célèbre nom de luthier.

 

  DOCUMENT       cnrs        LIEN

Nous sommes plus que notre ADN découverte d'un nouveau mécanisme d'hérédité épigénétique

il y a 5 mois

Paris, 24 avril 2017
 

Nous sommes plus que notre ADN : découverte d'un nouveau mécanisme d'hérédité épigénétique

 

L'équipe de Giacomo Cavalli, à l'Institut de génétique humaine de Montpellier (Université de Montpellier/CNRS), en collaboration avec l'Inra1, démontre chez la drosophile l'existence d'une hérédité épigénétique2 transgénérationnelle. En modifiant de façon transitoire la fonction des protéines du groupe Polycomb, dont l'activité est essentielle au cours du développement, ils ont obtenu des lignées de drosophile porteuses de la même séquence d'ADN mais caractérisées par des yeux de couleurs différentes. Ces différences dépendent d'un degré variable de répression par les protéines Polycomb qui est hérité de façon stable mais réversible. Cette hérédité épigénétique s'applique aussi bien à des lignées transgéniques qu'à des lignées naturelles et peut être modifiée par des changements de conditions environnementales, comme la température ambiante. Ces résultats sont publiés dans la revue Nature Genetics, le 24 avril 2017.
Elles ont toutes le même ADN mais des caractères bien différents : des chercheurs ont obtenu des lignées de drosophiles aux yeux blancs, jaunes ou rouges, en perturbant de façon transitoire des interactions entre des gènes cibles des protéines Polycomb, des complexes protéiques impliqués dans la répression de nombreux gènes, notamment des gènes de développement. 

Les informations nécessaires au fonctionnement des cellules ne sont pas toutes portées par le matériel génétique. D'autres paramètres, transmis de façon héréditaire mais non codés par les gènes d'un individu, pilotent la vie des cellules. Ces facteurs dits épigénétiques sont un étiquetage chimique et une organisation spatiale bien définie de notre génome. Ils correspondent en particulier aux modifications des histones, les protéines autour desquelles l'ADN s'enroule. Les protéines du groupe Polycomb, elles, sont impliquées dans la définition de l'architecture tridimensionnelle des chromosomes, qu'elles régulent en établissant des interactions entre gènes dans l'espace 3D du noyau cellulaire. Or, selon la position d'un gène à un moment donné, son expression sera activée ou réprimée.

En perturbant de façon transitoire ces interactions, les chercheurs ont pu établir des lignées de drosophiles caractérisées par des niveaux différentiels de répression ou d'activation génique dépendant des Polycomb. Les chercheurs ont séquencé le génome entier de chaque lignée de drosophiles, afin de vérifier que leur ADN soit bien identique. Malgré l'identité de leurs séquences d'ADN, ces lignées peuvent être maintenues indéfiniment et transmettent fidèlement leurs différences phénotypiques une fois établies. Ce phénomène peut être réversible : en croisant ces individus aux gènes surexprimés ou sous exprimés avec des drosophiles n'ayant pas de modifications, il est possible d'induire un retour à la normal de la couleur des yeux sans changer la séquence d'ADN, ce qui démontre le caractère épigénétique de cette forme d'héritage.
 
Les chercheurs ont ensuite pu montrer que la modification des conditions environnementales, notamment la température ambiante3, peut affecter l'expression de l'information épigénétique sur plusieurs générations, sans pour autant effacer sa transmission. Cette influence transitoire de l'environnement dans lequel ont vécu les générations précédentes sur l'expression des traits des insectes confère à ce mécanisme épigénétique des propriétés évolutives uniques. La pertinence du phénomène dans la nature a de plus été confirmée par des études en microcosme menées en collaboration avec l'Inra.

L'équipe de Giacomo Cavalli démontre ainsi l'existence d'un héritage épigénétique transgénérationnel stable, dépendant de la structure tridimensionnelle des chromosomes et régulé par les facteurs Polycomb. Ces résultats ouvrent de nouvelles perspectives pour les sciences biomédicales. Ils suggèrent notamment que l'épigénétique pourrait expliquer en partie le mystère de « l'hérédité manquante », c'est-à-dire l'incapacité de trouver les causes génétiques de certains caractères héréditaires normaux ainsi que de nombreuses pathologies humaines.

 

 DOCUMENT       cnrs        LIEN

Imiter les virus pour livrer des médicaments au coeur des cellules

il y a 5 mois


Paris, 27 août 2015
Imiter les virus pour livrer des médicaments au coeur des cellules

Les virus ont une aptitude à détourner le fonctionnement des cellules pour les infecter. En s'inspirant de leur mode d'action, des chercheurs du CNRS et de l'Université de Strasbourg ont conçu un « virus chimique » capable de franchir la double couche de lipides qui délimite les cellules, puis de se désagréger dans le milieu intracellulaire afin d'y libérer des molécules actives. Pour cela, ils ont utilisé deux polymères de leur conception, qui ont notamment des capacités d'auto-assemblage ou de dissociation selon les conditions. Ces travaux, fruit d'une collaboration entre chimistes, biologistes et biophysiciens, sont publiés dans l'édition du 1er septembre de la revue Angewandte Chemie International Edition.
Les progrès biotechnologiques donnent accès à un trésor de molécules ayant un potentiel thérapeutique. Beaucoup de ces molécules sont actives uniquement à l'intérieur des cellules humaines et restent inutilisables car la membrane lipidique qui délimite les cellules est une barrière qu'elles ne peuvent pas franchir. L'enjeu est donc de trouver des solutions de transfert aptes à traverser cette barrière. 

En imitant la capacité des virus à pénétrer dans les cellules, des chimistes du Laboratoire de conception et application de molécules bioactives (CNRS/Université de Strasbourg) cherchent à concevoir des particules à même de libérer des macromolécules actives uniquement au sein des cellules. Pour cela, ces particules doivent obéir à plusieurs contraintes souvent contradictoires. Elles doivent être stables dans le milieu extracellulaire, capables de se lier aux cellules afin d'être internalisées mais être plus fragiles à l'intérieur des cellules pour libérer leur contenu. Avec deux polymères de leur conception, les chercheurs ont réussi à construire un "virus chimique" remplissant les conditions nécessaires pour transférer directement des protéines actives dans la cellule.

Concrètement, le premier polymère (pGi-Ni2+) sert de support aux protéines, qui s'y fixent. Le second polymère (πPEI), récemment breveté, encapsule cet ensemble grâce à ses charges positives qui se lient aux charges négatives du pGi-Ni2+. Les particules obtenues (30-40 nanomètres de diamètre) sont capables de reconnaitre la membrane entourant les cellules et de s'y lier. Cette liaison active une réponse cellulaire : la nanoparticule est enveloppée par un fragment de membrane et entre dans un compartiment intracellulaire appelé endosome. Alors qu'ils étaient stables à l'extérieur de la cellule, les assemblages sont ébranlés par l'acidité qui règne dans ce nouvel environnement. Par ailleurs, cette baisse de pH permet au polymère πPEI de faire éclater l'endosome, ce qui libère son contenu en molécules actives. 

Grâce à cet assemblage, les chercheurs ont pu concentrer suffisamment de protéines actives à l'intérieur des cellules pour obtenir un effet biologique notable. Ainsi, en transférant une protéine appelée caspase 3 dans des lignées de cellules cancéreuses, ils ont réussi à induire 80 % de mort cellulaire1. 

Les résultats in vitro sont encourageants, d'autant que ce "virus chimique" ne devient toxique qu'à une dose dix fois supérieure à celle utilisée dans cette étude. Par ailleurs, des résultats préliminaires chez la souris ne font pas état de surmortalité. L'élimination par l'organisme des deux polymères reste cependant une question ouverte. La prochaine étape consistera à tester ce système de manière approfondie in vivo, chez l'animal. A court terme, ce système servira d'outil de recherche pour vectoriser2 dans les cellules des protéines recombinantes et/ou chimiquement modifiées. A long terme, ce travail pourrait ouvrir le champ d'application des protéines pharmaceutiques à des cibles intracellulaires et contribuer à la mise au point de médicaments novateurs. 

Ces travaux ont été rendus possibles par la collaboration de biophysiciens et de biologistes. Les compétences en cryomicroscopie électronique de l'Institut de génétique et de biologie moléculaire et cellulaire (CNRS/Université de Strasbourg/Inserm) et l'expertise en microscopie à force atomique du Laboratoire de biophotonique et pharmacologie (CNRS/Université de Strasbourg) ont permis de caractériser les assemblages moléculaires de manière très précise. Le laboratoire Biotechnologie et signalisation cellulaire (CNRS/Université de Strasbourg) a quant à lui fourni les protéines recombinantes encapsulées dans le virus artificiel.

 

 DOCUMENT         CNRS         LIEN

L'observation de l'anxiété, pour la première fois chez un invertébré, ouvre une nouvelle voie d'étude

il y a 6 mois

Paris, 13 Juin 2014
L'observation de l'anxiété, pour la première fois chez un invertébré, ouvre une nouvelle voie d'étude

Pour la première fois, des chercheurs du CNRS et de l'université de Bordeaux viennent de produire et d'observer un comportement d'anxiété chez l'écrevisse, qui disparaît lorsqu'on lui injecte une dose d'anxiolytiques. Ces travaux, publiés dans Science le 13 juin 2014, montrent que les mécanismes neuronaux liés à l'anxiété se sont conservés tout au long de l'évolution. L'analyse de ce comportement ancestral chez un modèle animal simple révèle, en outre, une nouvelle voie pour l'étude des bases neuronales de cette émotion.
L'anxiété peut être définie comme une réponse comportementale au stress consistant en une appréhension durable des événements à venir. Elle prépare les individus à détecter les menaces et à les anticiper de façon adaptée. Elle favorise donc leur survie. Cependant, lorsque le stress est chronique, l'anxiété devient pathologique et peut conduire à un état dépressif. 

Jusqu'à présent l'anxiété non pathologique n'avait été décrite que chez l'homme et quelques vertébrés. Pour la première fois, elle est observée chez un invertébré. Pour y parvenir, les chercheurs de l'Institut de neurosciences cognitives et intégratives d'Aquitaine (CNRS/université de Bordeaux) et de l'Institut des maladies neurodégénératives (CNRS/ université de Bordeaux) ont d'abord exposé les écrevisses à un champ électrique de façon répétée durant trente minutes. Ensuite, ils ont placé les écrevisses dans un labyrinthe aquatique en forme de croix. Deux des bras étaient éclairés, ce qui naturellement rebute les écrevisses, et deux étaient dans l'obscurité, ce qui, au contraire, les rassure. 

Les chercheurs ont alors analysé le comportement exploratoire des écrevisses. Les écrevisses rendues anxieuses ont eu tendance à rester dans les parties sombres du labyrinthe, contrairement aux écrevisses témoin, qui ont exploré l'ensemble du labyrinthe. Ce comportement est une réponse adaptative au stress subi : l'animal cherche à minimiser les risques de rencontrer un agresseur. Cet état émotionnel s'est estompé au bout d'une heure environ. 

L'anxiété des écrevisses est corrélée à un accroissement de la concentration de sérotonine dans leur cerveau. Ce neurotransmetteur est impliqué dans de nombreuses régulations physiologiques tant chez les invertébrés que chez l'homme. Elle est libérée dans des contextes de stress et régule plusieurs réponses liées à l'anxiété, comme l'augmentation des taux de glucose dans le sang. Les chercheurs ont aussi montré qu'en injectant un anxiolytique d'usage courant chez l'humain (benzodiazépine), le comportement d'évitement de l'écrevisse est aboli. Ceci montre à quel point les mécanismes neuronaux permettant d'établir ou d'inhiber le comportement anxieux sont apparus tôt dans l'évolution et se sont bien conservés au cours du temps. 

Ces travaux offrent aux chercheurs qui étudient le stress  et  l'anxiété, un modèle animal unique. Dotée d'un système nerveux simple dont les neurones sont faciles à enregistrer, l'écrevisse pourrait permettre de mieux comprendre les mécanismes neuronaux en œuvre dans un contexte stressant, ainsi que le rôle de neurotransmetteurs tels que la sérotonine ou le GABA. A présent, l'équipe veut étudier l'anxiété chez l'écrevisse soumise à un stress social et analyser les changements neuronaux qui s'opèrent lorsque l'anxiété se prolonge sur plusieurs jours. 

 

 DOCUMENT         cnrs        LIEN  

LASER

il y a 6 mois

Des nanofibres pour une conversion efficace de la longueur d’onde d’un laser
18 juillet 2013
Laser , fibre optique , LCF - UMR 8501 , nanofibre , diffusion Raman , non linéaire

Des physiciens viennent de démontrer la conversion de longueur d’onde d’un faisceau vert en un faisceau rouge par diffusion Raman stimulée avec une efficacité de 50% en le faisant traverser une nanofibre de silice baignant dans de l’éthanol.


 
Les processus d’optique non linéaire mis en œuvre pour convertir la longueur d’onde d’un faisceau lumineux requièrent de faire traverser des matériaux spécifiques par un faisceau intense. En concentrant la lumière dans leur cœur sur de grandes distances, les fibres optiques sont potentiellement très bien adaptées à ces processus, mais de nombreux matériaux utilisés pour l’optique non linéaire ne peuvent pas constituer de fibre. Des physiciens du laboratoire Charles Fabry (CNRS/IOGS) et de l’Université de Hangzhou (Chine) viennent de montrer que l’on peut contourner cette difficulté en plaçant le matériau non linéaire autour d’une fibre optique de diamètre nanométrique. Le faisceau lumineux canalisé par cette fibre se trouve en fait essentiellement hors du cœur de silice et interagit donc efficacement avec le milieu non linéaire qui l’entoure. Un rendement de près de 50% a ainsi été obtenu pour la conversion Raman d’un faisceau laser vert traversant de l’éthanol, sur une distance 10 fois plus faible qu’avec une fibre creuse contenant l’éthanol en son cœur. Ce travail est publié dans le Journal of the European Optical Society Rapid Publication.

Les physiciens ont développé une « plateforme d’étirage de fibres » pour étirer les fibres optiques de silice de même type que celles employées dans les réseaux de communication. Cet étirement de la fibre s’accompagne d’un affinement, le diamètre est réduit d’un facteur supérieur à 100, passant des 125 µm de la fibre d’origine à quelques centaines de nanomètres, cela sur une longueur pouvant atteindre 10 centimètres. La nanofibre obtenue se trouve entre deux sections de fibres standard de 125 µm d’un maniement particulièrement aisé pour injecter et récupérer la lumière. Le passage de la fibre standard à la nanofibre s’effectue sans perte et s’accompagne d’un très fort accroissement de l’intensité lumineuse lié à la réduction du diamètre. Bien que le diamètre de la nanofibre soit considérablement plus faible que la longueur d’onde de la lumière, le guidage persiste, mais une partie significative de l’énergie optique se propage hors de la silice et donc dans le milieu qui baigne cette dernière. Après une première expérience utilisant l’éthanol comme milieu non linéaire, les physiciens ont utilisé du toluène dilué dans de l’éthanol. Ils ont alors observé une cascade Raman : le faisceau initial à 532 nm excite le premier ordre Stokes du toluène à 562 nm qui excite à son tour le second ordre Stokes du toluène à 596 nm. Ces premières démonstrations ouvrent la voie à un vaste éventail de nouvelles expériences en optique non linéaire.

 

 DOCUMENT         cnrs        LIEN 

Invasion des insectes l'économie mondiale affectée

il y a 6 mois

Paris, 4 octobre 2016
Invasion des insectes : l'économie mondiale affectée

69 milliards d'euros, c'est le coût minimal annuel des dégâts provoqués par les insectes envahissants dans le monde, estime une équipe internationale de chercheurs menée par Franck Courchamp, directeur de recherche CNRS au laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech) et impliquant notamment les entomologistes de l'IRD à Montpellier et un économiste CNRS. Depuis les dégâts sur les biens et services jusqu'aux coûts en santé, en passant par les pertes en agriculture, cette étude, réalisée avec le soutien de l'ANR et de la Fondation BNP Paribas, rassemble la plus importante base de données jamais élaborée des dégâts économiques imputables aux insectes envahissants dans le monde : 737 articles, livres et rapports ont été considérés. Ces travaux sont publiés dans Nature Communications le 4 octobre 2016.
Pourquoi étudier les insectes ? Depuis des milliers d'années, les insectes ont été responsables de la propagation de maladies chez l'Homme et le bétail, et de dégâts considérables, depuis l'anéantissement des cultures et réserves, en passant par la destruction des infrastructures, jusqu'à la dévastation des forêts, altérant ainsi les écosystèmes et les rendant plus fragiles. Dans le règne vivant, la seule classe des insectes (environ 2,5 millions d'espèces) est probablement le groupe le plus coûteux. De plus, ils font partie des espèces envahissantes les plus virulentes : 87 % des 2 500 invertébrés terrestres ayant colonisé de nouveaux territoires sont des insectes.

Des dégâts sous-évalués

Les scientifiques ont estimé à 69 milliards d'euros par an le coût minimal des dégâts causés par les insectes envahissants dans le monde. Parmi les d'insectes étudiés, le termite de Formose1 (Coptotermes formosanus) serait l'un des plus destructeurs : plus de 26,7 milliards d'euros par an dans le monde. Mais cette estimation provient d'une étude trop peu documentée, selon l'équipe de recherche. Des études plus renseignées (estimées reproductibles par les scientifiques) placent également « en haut du classement » la teigne des choux2 (Plutella xylostella), avec un coût de 4,1 milliards d'euros par an et le longicorne brun de l'épinette3 (Tetropium fuscum), avec un coût de 4 milliards d'euros par an rien qu'au Canada.

Par ailleurs, d'après cette étude, l'Amérique du Nord présente les plus importantes pertes financières avec 24,5 milliards d'euros par an, tandis que l'Europe n'est pour l'instant qu'à 3,2 milliards d'euros par an. Mais cette différence s'explique par un manque de sources d'évaluation et non par une réelle différence d'exposition au danger. Ainsi, selon les chercheurs, le coût annuel total estimé de 69 milliards d'euros est largement sous-évalué. De nombreuses régions du monde n'offrent pas assez de données économiques pour produire une estimation précise, qui a donc été minimisée. De plus, l'équipe de chercheurs s'est concentrée sur l'étude des dix espèces invasives les plus coûteuses, sans comptabiliser celles, très nombreuses, qui provoquent moins de dégâts. Enfin, si l'on considère les valeurs estimées pour les services écosystémiques à l'échelle globale (plusieurs centaines de milliards de dollars pour la seule pollinisation des cultures), les perturbations causées par les insectes envahissants pourraient atteindre un niveau bien au-delà de l'estimation actuelle. 

La santé et l'agriculture sont les plus touchées

Les insectes dans leur ensemble pèsent particulièrement sur l'agriculture en consommant 40 % des biens de consommation (l'équivalent de ce qui pourrait nourrir un milliard d'êtres humains).

Sur la santé, le coût global attribuable aux insectes envahissants dépasse 6,1 milliards d'euros par an (sans prendre en compte le paludisme, le virus Zika, ou encore l'impact économique provoqué sur certains facteurs comme le tourisme, la productivité, etc). D'un point de vue géographique, les régions du monde où les dépenses médicales liées aux dégâts causés par les insectes envahissants s'avèrent les plus importantes, sont respectivement l'Asie (2,55 milliards d'euros par an), l'Amérique du Nord (1,85 milliards d'euros par an) et l'ensemble de l'Amérique centrale et du Sud (1,66 milliards d'euros par an). Et, parmi les maladies les plus lourdes financièrement, on trouve au premier plan la dengue, dont les dépenses représentent 84 % des 6,1 milliards d'euros.

Une plus grande vigilance et la mise en place de procédures de réponse à une invasion biologique permettraient de faire économiser à la société des dizaines de milliards d'euros, selon les auteurs. Ces mesures de prévention pourraient diviser au moins par dix les coûts des maladies provoquées par les moustiques.

Laboratoires français impliqués :

laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech)
Laboratoire montpelliérain d'économie théorique et appliquée (CNRS/ Université de Montpellier/Inra)
laboratoire Maladies infectieuses et vecteurs : écologie, génétique, évolution et contrôle (CNRS/IRD/Université de Montpellier)
laboratoire Biologie des organismes et écosystèmes aquatiques (CNRS/MNHN/IRD/UPMC/Université Caen Normandie) 

 

  DOCUMENT         cnrs        LIEN  

SUPRACONDUCTIVITÉ

il y a 6 mois


supraconductivité

Phénomène présenté par certains métaux, alliages ou céramiques dont la résistivité électrique devient pratiquement nulle au-dessous d'une certaine température (appelée température critique).
image: http://www.larousse.fr/encyclopedie/data/animations/1101059-Supraconducteur.jpg
Supraconducteur
Supraconducteur
Découverte en 1911, la supraconductivité apparaît dans certains métaux ou alliages refroidis à très basse température : 7,2 K (− 266 °C) pour le plomb et 1,17 K (− 272 °C) pour l'aluminium. Ses propriétés exceptionnelles (en particulier une résistance électrique nulle) sont le reflet d'un nouvel état de la matière dont les propriétés quantiques se révèlent à notre échelle.
La compréhension de la supraconductivité a fait appel aux connaissances expérimentales et théoriques de la physique quantique acquises jusqu'au milieu des années 1950 pour aboutir, en 1957, au modèle BCS, du nom de ses inventeurs : J. Bardeen, L. Cooper et J. Schrieffer. Ce modèle, qui leur a valu le prix Nobel en 1972, a été bâti en deux étapes.
Dans un premier temps, ils établirent l'existence d'une interaction attractive entre les électrons libres d'un métal, ceux participant à la conduction électrique, alors que ces électrons, porteurs d'une charge négative, auraient dû normalement se repousser. L'observation du changement de la température critique, température à laquelle se manifeste la supraconductivité, d'échantillons ne différant que par leur composition isotopique mit en évidence le rôle des ions du réseau. Un électron se déplaçant dans le réseau cristallin attire les ions sur son passage et crée ainsi dans son sillage un excès de charge positive auquel un autre électron sera sensible. Ce mécanisme se traduit par une attraction effective entre les deux électrons, qui, dans un matériau favorable, peut dominer la répulsion électrostatique.
Cette observation n'a pris tout son sens que dans la deuxième étape, quand il est apparu que toute attraction entre les électrons libres déstabilise l'état fondamental d'un métal. Il en résulte l'apparition d'un nouvel état du « gaz électronique », qui n'est plus alors formé d'électrons individuels obéissant à la statistique de Fermi-Dirac (fermions) mais de paires d'électrons, les paires de Cooper, régies par la statistique de Bose-Einstein (bosons). Ces nouvelles propriétés statistiques entraînent la condensation de toutes les paires de Cooper en un état quantique unique qui se traduit par les propriétés supraconductrices.
Dans un métal normal, les impuretés et les vibrations du réseau cristallin sont autant d'obstacles qui freinent le mouvement des électrons individuels transportant le courant électrique et créent ainsi une résistance non nulle. Dans un supraconducteur, ces mêmes obstacles ne suffisent plus à freiner l'ensemble cohérent des paires d'électrons, dont le mouvement est intimement dépendant du mouvement de toutes les autres. Une résistance électrique rigoureusement nulle, et donc un transport sans perte d'un courant électrique continu, en est la conséquence.

 

 DOCUMENT    larousse.fr    LIEN

 

SUPRACONDUCTIVITÉ

il y a 6 mois


supraconductivité

Phénomène présenté par certains métaux, alliages ou céramiques dont la résistivité électrique devient pratiquement nulle au-dessous d'une certaine température (appelée température critique).
image: http://www.larousse.fr/encyclopedie/data/animations/1101059-Supraconducteur.jpg
Supraconducteur
Supraconducteur
Découverte en 1911, la supraconductivité apparaît dans certains métaux ou alliages refroidis à très basse température : 7,2 K (− 266 °C) pour le plomb et 1,17 K (− 272 °C) pour l'aluminium. Ses propriétés exceptionnelles (en particulier une résistance électrique nulle) sont le reflet d'un nouvel état de la matière dont les propriétés quantiques se révèlent à notre échelle.
La compréhension de la supraconductivité a fait appel aux connaissances expérimentales et théoriques de la physique quantique acquises jusqu'au milieu des années 1950 pour aboutir, en 1957, au modèle BCS, du nom de ses inventeurs : J. Bardeen, L. Cooper et J. Schrieffer. Ce modèle, qui leur a valu le prix Nobel en 1972, a été bâti en deux étapes.
Dans un premier temps, ils établirent l'existence d'une interaction attractive entre les électrons libres d'un métal, ceux participant à la conduction électrique, alors que ces électrons, porteurs d'une charge négative, auraient dû normalement se repousser. L'observation du changement de la température critique, température à laquelle se manifeste la supraconductivité, d'échantillons ne différant que par leur composition isotopique mit en évidence le rôle des ions du réseau. Un électron se déplaçant dans le réseau cristallin attire les ions sur son passage et crée ainsi dans son sillage un excès de charge positive auquel un autre électron sera sensible. Ce mécanisme se traduit par une attraction effective entre les deux électrons, qui, dans un matériau favorable, peut dominer la répulsion électrostatique.
Cette observation n'a pris tout son sens que dans la deuxième étape, quand il est apparu que toute attraction entre les électrons libres déstabilise l'état fondamental d'un métal. Il en résulte l'apparition d'un nouvel état du « gaz électronique », qui n'est plus alors formé d'électrons individuels obéissant à la statistique de Fermi-Dirac (fermions) mais de paires d'électrons, les paires de Cooper, régies par la statistique de Bose-Einstein (bosons). Ces nouvelles propriétés statistiques entraînent la condensation de toutes les paires de Cooper en un état quantique unique qui se traduit par les propriétés supraconductrices.
Dans un métal normal, les impuretés et les vibrations du réseau cristallin sont autant d'obstacles qui freinent le mouvement des électrons individuels transportant le courant électrique et créent ainsi une résistance non nulle. Dans un supraconducteur, ces mêmes obstacles ne suffisent plus à freiner l'ensemble cohérent des paires d'électrons, dont le mouvement est intimement dépendant du mouvement de toutes les autres. Une résistance électrique rigoureusement nulle, et donc un transport sans perte d'un courant électrique continu, en est la conséquence.

 

 DOCUMENT    larousse.fr    LIEN

 

SUPRACONDUCTEUR

il y a 6 mois

Plan
supraconducteur
Propriétés
Matériaux supraconducteurs
Applications
Plan
supraconducteur
Consulter aussi dans le dictionnaire : supraconducteur
Matériau qui présente le phénomène de supraconduction.
Propriétés


Les supraconducteurs de type I excluent tout champ magnétique et possèdent un faible champ magnétique critique au-delà duquel ils reviennent à l'état normal. Au contraire, ceux de type II laissent un champ magnétique extérieur les pénétrer partiellement sous forme de petits tubes de flux magnétique, les vortex. La densité de courant maximale admissible (ou courant critique) dépend étroitement du comportement magnétique du matériau puisqu'il est soumis au champ créé par le courant qu'il transporte. En pratique, ce sont les supraconducteurs de type II, plus souples, qui possèdent les meilleures caractéristiques, c'est-à-dire les valeurs les plus élevées de température de champ et de courant critiques, ce qui leur ouvre le vaste domaine de la production de champs magnétiques intenses.
Matériaux supraconducteurs

Les plus couramment utilisés sont, d'une part, des alliages ductiles comme l'alliage niobium-zirconium (NbZr) et surtout niobium-titane (NbTi), d'autre part, des composés intermétalliques tels que niobium-étain (Nb3Sn), qui ont de meilleures caractéristiques supraconductrices mais présentent l'inconvénient d'être cassants.
Les premiers matériaux supraconducteurs à haute température critique (35 K), des oxydes de cuivre et de terres rares (céramiques), n'ont été découverts qu'en 1986. Les auteurs de cette découverte, révolutionnaire pour la supraconductivité, J. G. Bednorz et K. A. Müller, ont reçu dès 1987 le prix Nobel de physique. En quelques mois, plusieurs équipes découvrent de nombreux composés analogues, de température critique souvent plus élevée encore. En 1993, deux équipes françaises élaborent des matériaux présentant certains des critères de supraconductivité à des températures proches des températures ambiantes ; l'une, à l'École supérieure de physique et de chimie industrielles de la Ville de Paris (E.S.P.C.I.), obtient une température critique (résistance nulle) de − 23 °C ; l'autre, au C.N.R.S. à Grenoble, observe du diamagnétisme à des températures variant de − 63 °C à + 7 °C.
Ces composés complexes forment une classe originale : ce sont des oxydes, assez mauvais conducteurs à température ambiante. Leur structure cristalline est de type lamellaire et leurs propriétés physiques sont fortement anisotropes. Par ailleurs, le mécanisme conduisant à la supraconductivité dans ces céramiques est toujours débattu.
Plus récemment, ont été mises en évidence les propriétés supraconductrices à haute température critique (117 K) des fullerènes de formule C60 (sous champ électrique). On a aussi découvert que le diborure de magnésium MgB2 devient supraconducteur à 39 K. Ce matériau présente l'avantage de pouvoir laisser passer de forts courants électriques ; par ailleurs, sa chimie et sa mise en forme sont nettement plus faciles à maîtriser que celles des céramiques supraconductrices.
Applications

Les supraconducteurs à champ élevé sont principalement utilisés en physique des hautes énergies, notamment pour les accélérateurs de particules, les anneaux de stockage, le confinement magnétique des plasmas pour la fusion nucléaire (installations du type tokamak). En électrotechnique, divers prototypes ont été étudiés pour le transport et la production d'énergie électrique : lignes, transformateurs, moteurs et générateurs. Des filtres micro-ondes à supraconducteurs sont utilisés dans les réseaux de télécommunications mobiles et les radars. Comme on obtient aisément, de façon industrielle, une température de 77 K grâce à l'azote liquide, l'obstacle des basses températures, soumis à l'utilisation de l'hélium liquide, a disparu pour les applications à grande échelle de la supraconductivité. Cependant, la recherche et le développement nécessaires sont en cours et les domaines qui déboucheront sur des applications sont difficiles à déterminer. On cite l'obtention de champs magnétiques intenses (de plusieurs centaines de teslas) utilisables dans les transports, par exemple avec les projets de trains à sustentation magnétique. Des connexions sans pertes dans les ordinateurs sont aussi envisagées. Ces applications supposent d'abord que ces composés, obtenus sous forme de grains, puissent être transformés en fils ou déposés en couche mince, technique qui n'en est encore qu'à ses débuts.

 

 DOCUMENT    larousse.fr    LIEN

 

 

 

EXISTENTIALISME

il y a 7 mois

existentialisme
(de existentiel)

Jean-Paul Sartre

Doctrine philosophique qui met l'accent sur le vécu humain plutôt que sur l'être et qui affirme l'identité de l'existence et de l'essence, ou leur parfaite complémentarité.
Existentialisme et littérature

L'existentialisme n'est pas un mouvement littéraire, et il n'existe pas à proprement parler de littérature existentialiste. C'est par une extension abusive du terme que le langage courant a qualifié d'existentialistes un certain nombre de manifestations culturelles de tous ordres qui se sont produites en France entre 1945 et 1955. Cette période a été dominée par les figures de Jean-Paul Sartre et d'Albert Camus, mais ni l'un ni l'autre n'a jamais prétendu diriger ou inspirer une école littéraire.
Historiquement, on peut considérer qu'il existe une littérature de l'époque dite « existentialiste », mais il s'en faut de beaucoup qu'elle ne contienne que des œuvres d'existentialistes déclarés : Camus lui-même a refusé cette étiquette. En revanche, la littérature de l'époque existentialiste se caractérise par un certain nombre de traits dont on trouve l'expression la plus pure et la plus intense dans les œuvres littéraires de Sartre et de Camus. Comme on l'a écrit, l'existentialisme a été, « autour d'un certain nombre d'œuvres auxquelles il convient de restituer leur singularité, un climat philosophique, politique et littéraire, un ensemble de thèmes et de préoccupations qui caractérisent plus une situation historique et une période qu'une grande famille de la littérature française ».
La situation historique était celle de la Libération. C'est dans le climat dramatique de l'Occupation et de la Résistance qu'est née l'angoisse, trait commun de la plupart des écrivains de l'époque existentialiste. C'est d'ailleurs parce que la philosophie héritée de Husserl et de Heidegger place l'angoisse au cœur même de l'existence que sa vulgarisation – dès les années de guerre avec Gabriel Marcel – a rencontré un tel écho et a pu, de ce fait, devenir un thème littéraire. Les grands textes de base de Sartre, comme la Nausée ou de Camus, comme l'Étranger, sont des descriptions d'une expérience de l'angoisse. On en pourrait dire autant des premiers romans de Simone de Beauvoir et aussi des pièces d'un écrivain comme Jean Anouilh, qui n'est pas un existentialiste, mais dont l'Antigone (1944), à peu près contemporaine des Mouches (1943) de Sartre, reflète le même climat moral et psychologique.
Un autre trait de la philosophie existentialiste qui devait trouver un écho dans le public est sa manière d'appréhender le réel, ce qu'on appelle la phénoménologie. En un temps où l'événement est roi et où les constructions intellectuelles s'écroulent sous la poussée d'une histoire au sens propre absurde, l'interrogation de l'instant, de l'objet, de la conscience immédiate fournit à l'écrivain une riche matière. La description minutieuse, attentive, mais impitoyable et souvent désespérée de ce que les sens perçoivent est un des procédés caractéristiques de l'écriture existentialiste. Plus tard, le « nouveau roman » en héritera et en fera un système. Il y a une filiation directe de l'écriture de Sartre narrateur à celle de Michel Butor, d'Alain Robbe-Grillet ou de Claude Simon.
Le nouveau roman reniera cette filiation, mais toute l'attitude phénoménologique des existentialistes est encore dans cette remarque d'Alain Robbe-Grillet : « Or le monde n'est ni signifiant, ni absurde. Il est tout simplement. C'est là en tout cas ce qu'il a de plus remarquable. Et soudain cette évidence nous frappe avec une force contre laquelle nous ne pouvons plus rien. […] Autour de nous, défiant la meute de nos adjectifs animistes ou ménagers, les choses sont là. Leur surface est nette et lisse, intacte, sans éclat louche ni transparence. Toute notre littérature n'a pas encore réussi à en entamer le plus petit coin, à en amollir la moindre courbe. »
On notera que l'absurde est ici refusé en tant que catégorie littéraire, et c'est en cela notamment que l'idéologie du nouveau roman se sépare de la littérature d'inspiration existentialiste, dont le sentiment de l'absurde est encore un des traits caractéristiques. Il survivra brillamment en particulier dans le théâtre de Beckett et d'Ionesco, et plus encore dans celui de Jean Genet. Ce dernier, auquel Sartre a consacré plusieurs études, est probablement un des auteurs contemporains dont il est possible de dire qu'il appartient à la lignée existentialiste. Il fait dire à un de ses personnages, représentant des opprimés : « Nous sommes ce qu'on veut que nous soyons, nous le serons donc jusqu'au bout, absurdement. »
Le trait peut-être le plus caractéristique de la littérature dite « existentialiste » est l'engagement conçu comme une expérience, comme une situation de l'écrivain plutôt que comme une loi morale. Pivot de la pensée littéraire de Sartre, l'engagement est avant tout la prise de conscience par l'écrivain de sa responsabilité politique et idéologique. Ce n'est, en aucun cas, l'asservissement à un pouvoir politique ou à une idéologie, ainsi qu'on l'a parfois un peu légèrement ou perfidement représenté.
Ce qui pourrait, à la rigueur, passer pour un manifeste littéraire de l'existentialisme est un petit livre de Jean-Paul Sartre paru en 1947 : Qu'est-ce que la littérature ? Mais, plutôt que l'expression des principes d'un groupe, il faut y voir l'analyse d'un philosophe militant qui est en même temps un écrivain et qui réfléchit en moraliste sur le phénomène littéraire.
Les trois premiers chapitres du livre répondent à trois questions : Qu'est-ce qu'écrire ? Pourquoi écrire ? Pour qui écrit-on ?
À la première question, Sartre répond en disant qu'écrire, c'est transmettre un message en se livrant tout entier « comme une volonté résolue et comme un choix, comme cette totale entreprise de vivre que nous sommes chacun ».
L'exercice de la liberté est la réponse à la deuxième question : pourquoi écrire ? Il s'agit de « la liberté concrète et quotidienne qu'il faut protéger, en prenant parti dans les luttes politiques et sociales ».
Enfin, on écrit pour un lecteur dont l'acte de lecture va au-devant de l'acte d'écriture pour créer l'œuvre de l'esprit. « Ainsi le public concret serait une immense interrogation féminine, l'attente d'une société tout entière que l'écrivain aurait à capter et à combler. » Mais de telles conditions ne peuvent être réalisées que dans une société sans classes.
Cette constatation conduit Sartre à s'interroger dans un dernier chapitre sur ce qu'est la situation de l'écrivain dans la société où il vit, c'est-à-dire celle de 1947.
Sa conclusion est que la littérature est menacée dans cette société et que « son unique chance, c'est la chance de l'Europe, du socialisme, de la paix ». Sartre indique ainsi quels doivent être les combats de l'écrivain engagé, c'est-à-dire de l'écrivain libre. Dans les idées de Sartre, ce sont les notions de message et d'engagement qui sont les plus fréquemment contestées. La critique structuraliste, en particulier, les considère comme « métaphysiques » et incompatibles avec la rigueur scientifique qu'elle exige de l'expression littéraire. Elles sont pourtant passées dans les mœurs et dans le langage.
Même s'il n'a jamais fondé d'école littéraire, l'existentialisme, outre quelques grandes œuvres, a laissé dans notre vie littéraire des marques durables, notamment la conscience du lecteur et l'exigence d'une éthique de l'écrivain.


Existentialisme et philosophie

Un double refus de la philosophie caractérise l'existentialisme. Refus de la philosophie en tant qu'elle constituerait une discipline portant sur un ensemble de problèmes fixés par la tradition, en particulier en tant qu'elle serait une « science de l'être ». Et d'abord parce que l'être n'est pas un objet, parce que le rapport à l'être n'est, en aucun sens du terme, « disciplinable » : il s'établit sur le mode de la question dans l'expérience de l'angoisse. Tel est d'ailleurs le sens de l'opposition de l'essence et de l'existence : si les divers « étants » (pierres, plantes, animaux, etc.) ont chacun une structure propre, celle de l'homme – l'existence (ou Dasein) – veut précisément qu'en lui son être soit (en) question. Autrement dit, l'analyse du Dasein (du mode d'existence illustré et incarné par l'homme) révèle que l'homme n'est pas, mais qu'il a à être (quelque chose), révèle donc que son essence est postérieure à son existence et même, selon le mot de Jean Wahl, que « l'existence n'a pas d'essence ». Si les choses sont ce qu'elles sont, l'homme n'est jamais ce qu'il est : leur existence statique s'oppose à son existence « ek-statique ». L'existence est perpétuelle transcendance, pouvoir inépuisable d'être autre chose, de différer jusqu'à la mort. Mais, en même temps, cette transcendance et la liberté qu'elle implique s'enracinent dans la finitude d'une situation qui ne leur doit rien : on ne choisit pas d'exister. En effet, l'existence – et ce sera là un second axe de transcendance qui prolonge les descriptions faites par Husserl de la structure intentionnelle de la conscience – est, en son cœur même, rapport avec l'extériorité d'un monde qui n'est pas son œuvre. Exister, ce n'est donc pas être, mais être-dans, être-avec, être-pour, etc. « L'existentialisme, écrit Emmanuel Lévinas, consiste à sentir et à penser que le verbe être est transitif. » À l'analyse du concept d'être que la philosophie traditionnelle poursuivait, l'existentialisme substitue une description des divers modes d'existence, des diverses structures qu'adopte le phénomène d'exister : une « ontologie phénoménologique », selon le sous-titre donné par Sartre à l'Étre et le Néant (1943).
Cette contestation de la philosophie comme théorie de l'être en tant que concept et du primat des essences sur les existences représente ce que l'on pourrait appeler le « contenu doctrinal » de la philosophie existentielle ; elle est commune d'ailleurs à nombre de penseurs qui, pourtant (comme Heidegger), refusent d'être définis comme existentialistes. Or, elle continue à se produire dans le cadre ménagé par la tradition occidentale à l'exercice de la philosophie : l'enseignement. C'est ici qu'apparaît le second refus : affirmer, à l'intérieur des franchises universitaires, que l'existence n'a pas d'essence, n'est-ce pas se contenter, dans la contestation de la philosophie, d'une demi-mesure qui condamne la doctrine existentialiste à une position inauthentique ? Pour être conséquent l'existentialisme n'exige-t-il pas que la philosophie cesse d'être le fait de professeurs qui discourent sur la vie, mais qu'elle soit la vie elle-même ? Si les concepts s'enseignent, l'existence se vit. Autrement dit, après la contestation de la philosophie effectuée au sein de l'espace philosophique traditionnel par les penseurs allemands, il faut (c'est du moins ce que pensent et entreprennent ceux qui, en France, revendiquent le nom d'existentialistes) mettre en œuvre une contestation en quelque sorte pratique, en rupture d'université, qui s'installe de plain-pied avec l'existence, qui détruise la dissociation de la philosophie et de l'existence.
C'est ici, également, qu'apparaît l'importance rétrospective de Kierkegaard avec son double refus théorique et pratique de la philosophie, que symbolise l'opposition à Hegel. Toute son œuvre, toute sa vie ne sont qu'un refus du savoir, qu'une revendication inlassable de la singularité de l'existence subjective, qu'une affirmation de l'incommensurabilité du savoir et du vécu. C'est ce que Sartre exprime quand il écrit que « Kierkegaard marque par sa simple vie que tout savoir concernant le subjectif est d'une certaine manière un faux savoir », que « le vécu comme réalité concrète se pose comme non-savoir ».
L'existentialisme ne saurait être une doctrine qui se professe : il affirme qu'aucun recul, qu'aucune « mise-entre-parenthèses » n'est possible, car l'existence, c'est ce dans quoi l'on est toujours engagé. (On peut objecter que ce refus mène à deux inauthenticités, au choix : la parole professorale ou le bavardage.)
L'entrée de l'existentialisme dans la vie quotidienne adopte deux directions : renonçant au mode d'expression philosophique, il recourt volontiers aux formes littéraires ; d'autre part, il demande à l'époque le thème de ses réflexions, ce qui l'oriente vers la politique. (La littérature, qui présente des personnages et non des concepts, des situations concrètes et non des raisonnements, est théoriquement accessible à des lecteurs non spécialisés. Quant à la politique, elle est précisément ce qui occupe toutes les pensées du moment.) Ces deux voies, autour desquelles s'ordonnaient les premiers sommaires de la revue les Temps modernes, convergeront dans le programme d'une littérature engagée.

 

DOCUMENT   larousse.fr    LIEN

 

L'EAU UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE

il y a 7 mois

L'EAU : UN LIQUIDE ORDINAIRE OU EXTRAORDINAIRE


L'eau est un liquide dont les propriétés sont tout à fait surprenantes, à la fois comme liquide pur et comme solvant. C'est un liquide très cohésif : ses températures de cristallisation et d'ébullition sont très élevées pour un liquide qui n'est ni ionique, ni métallique, et dont la masse molaire est faible. Cette cohésion est assurée par les liaisons hydrogène entre molécules d'eau ; l'eau fait ainsi partie d'un petit groupe de liquides qu'on appelle liquides associés. Cependant, parmi ces liquides, la cohésion de l'eau est remarquable, et elle se traduit par une chaleur spécifique énorme. Cette résistance aux variations de température a des conséquences climatiques importantes, puisque la capacité calorifique des océans leur fait jouer le rôle de régulateurs thermiques du climat. L'eau est aussi un liquide très cohésif d'un point de vue diélectrique : sa constante diélectrique est bien plus élevée que celle qu'on attendrait sur la base de la valeur du moment dipolaire de la molécule isolée. C'est aussi, dans les conditions usuelles de température et de pression, un liquide peu dense : les atomes y occupent moins de la moitié du volume total ; une grande partie du volume de l'eau liquide est donc formée de cavités. Le volume occupé par ces cavités varie de manière tout à fait anormale à basse température. D'abord, l'eau se dilate quand on la refroidit en dessous d'une température appelée température du maximum de densité. Ensuite, l'eau se dilate encore de 9 % en cristallisant, contrairement à la plupart des liquides, qui se contractent d'environ 10 % en cristallisant. Cette augmentation de volume, qui fait flotter la glace sur l'eau, a des conséquences environnementales considérables : si la glace était plus dense que l'eau liquide, toute la glace formée dans les régions arctiques coulerait au fond des océans au lieu de former une banquise qui les isole thermiquement des températures extérieures, et la production de glace continuerait jusqu'à congélation complète de ces océans Pour presque tous les liquides, l'application d'une pression réduit la fluidité et favorise le solide par rapport au liquide. Au contraire, pour l'eau à basse température, l'application d'une pression accroît la fluidité et favorise le liquide par rapport à la glace. Cet effet anormal de la pression permet à l'eau de rester fluide lorqu'elle est confinée dans des pores ou des films nanométriques, contrairement aux autres liquides qui se solidifient sous l'effet des pressions de confinement. Cette persistance de l'état fluide est capitale pour le fonctionnement des cellules biologiques : en effet, de nombreux processus requièrent le déplacement de couches d'hydratation avant le contact entre macromolécules, ou avant le passage d'un ligand vers son récepteur. De même le passage des ions à travers les canaux qui traversent les membranes des cellules n'est possible que grâce à l'état fluide de l'eau confinée dans ces canaux. Les théories anciennes attribuaient toutes ces anomalies au fait que les molécules d'eau sont liées par des liaisons H. En ce sens, l'eau devrait avoir des propriétés « en ligne » avec celles d'autres liquides associés (éthanol, glycols, amides). Pour les propriétés de cohésion, c'est une bonne hypothèse de départ – bien que les propriétés de l'eau (densité d'énergie cohésive, constante diélectrique) soient supérieures à celles des liquides comparables. Pour les autres propriétés, cette hypothèse n'est pas suffisante : les autres liquides associés ne partagent pas les propriétés volumiques anormales de l'eau, ni son polymorphisme, ni son comportement comme solvant. Certains liquides ont un comportement qui ressemble à celui de l'eau pour une de ses propriétés : par exemple, on connaît quelques liquides qui se dilatent à basse température, ou en cristallisant. Nous découvrirons peut-être un jour que chacune des propriétés anormales de l'eau existe aussi dans un autre liquide. Cependant il est remarquable qu'un seul liquide rassemble autant d'anomalies. Il y a donc un besoin d'explication, auquel ne répondent pas les théories développées pour les liquides simples.

 

  DOCUMENT       canal-u.tv     LIEN  

 ( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )

Méningites à méningocoque

il y a 7 mois


1er juin 2014
Méningites à méningocoque : un pas décisif dans la compréhension du mécanisme pathogène de cette bactérie

Neisseria meningitidis ou méningocoque, est une bactérie responsable de méningites et de septicémies1, dont la forme la plus grave, purpura fulminans, est souvent fatale. Cette bactérie, qui réside naturellement dans le rhinopharynx de l'Homme, est pathogène lorsqu'elle atteint la circulation sanguine. Les équipes du Dr Sandrine Bourdoulous, directrice de recherche CNRS à l'Institut Cochin (CNRS/Inserm/Université Paris Descartes), et du Pr Xavier Nassif de l'Institut Necker Enfants Malades (CNRS/Inserm/Université Paris Descartes/AP-HP) ont décrypté les événements moléculaires par lesquels les méningocoques ciblent les vaisseaux sanguins et les colonisent. Ces travaux ouvrent la voie à de nouvelles perspectives thérapeutiques pour le traitement des troubles vasculaires provoqués par ce type d'infection invasive. Leur étude est publiée le 1er juin 2014 dans Nature Medicine.
Lorsque Neisseria meningitidis se multiplie dans le sang, cette bactérie interagit avec les cellules endothéliales qui tapissent l'intérieur des vaisseaux sanguins et adhère aux parois de ces derniers. Au niveau de la peau et des muqueuses, l'infection des vaisseaux par le méningocoque crée des lésions hémorragiques (dites purpuriques), dues à des saignements dans les tissus, qui peuvent rapidement évoluer vers une forme grave et souvent mortelle de la maladie (le purpura fulminans) Au niveau du cerveau, l'adhérence des méningocoques aux vaisseaux leur permet de franchir la barrière hémato-encéphalique2 et d'entraîner une méningite lorsqu'ils envahissent les méninges3. 

Les équipes de chercheurs ont décrypté le mécanisme d'adhérence de Neisseria meningitidis aux vaisseaux sanguins, étape au cœur de la pathogénicité de la bactérie. Du côté des vaisseaux sanguins, ils ont identifié le récepteur4 CD147, dont l'expression est essentielle à l'adhérence initiale du méningocoque aux cellules endothéliales. Si ce récepteur est absent, N. meningitidis ne peut pas s'implanter et coloniser les vaisseaux sanguins.

Du côté bactérien, il est connu que les processus d'adhérence du méningocoque aux cellules humaines reposent sur les pili de longs appendices filamenteux exprimés par la bactérie, composés de différentes sous-unités (les pilines). Cependant, les pilines spécifiquement impliquées dans l'adhérence de N. meningitidis aux vaisseaux sanguins n'avaient jamais été identifiées. Les chercheurs ont ainsi déterminé que deux pilines, PilE et PilV, interagissent directement avec le récepteur CD147. Sans elles, les méningocoques ne peuvent pas adhérer aux cellules endothéliales.

L'Homme est la seule espèce pouvant être infectée par les méningocoques. Pour montrer in vivo que les pilines PilE et PilV sont essentielles à la colonisation du réseau vasculaire par N. meningitidis, les chercheurs ont utilisé un modèle de souris immunodéficientes greffées avec de la peau humaine, conservant des vaisseaux humains fonctionnels au sein de la greffe et permettant ainsi de reproduire chez la souris les phases cutanées de l'infection observée chez l'Homme. Ces souris ont alors été infectées par des méningocoques possédant naturellement les pilines PilE et PilV, ou des méningocoques dans lesquels l'expression de ces pilines a été artificiellement supprimée. Les vaisseaux sanguins humains ne sont infectés que par les méningocoques possédant PilE et PilV ce qui confirme que ces deux pilines sont essentielles au processus de colonisation de la bactérie. 
Les chercheurs ont également montré, avec un modèle d'infection ex vivo5, que les vaisseaux cérébraux et les méninges, particulièrement riches en récepteurs CD147, sont permissifs à la colonisation par les méningocoques à la différence d'autres parties du cerveau. 

Les chercheurs souhaitent désormais développer un nouveau type de vaccin (en complément de ceux qui existent déjà) qui bloquerait l'interaction entre N. meningitidis et les récepteurs CD147 et empêcherait ainsi la colonisation des vaisseaux par la bactérie. 

Cette étude a été réalisée grâce au soutien des équipes du Dr Frank Lafont, du Centre d'infection et d'immunité de Lille (CNRS/Inserm/Institut Pasteur de Lille/Université Lille 1/Université Lille 2), du Pr Fabrice Chrétien, de l'unité Histopathologie humaine et modèles animaux de l'Institut Pasteur de Paris et du Dr Eric Chevet du Groupe de recherches pour l'étude du foie (Inserm/Université de Bordeaux).

 

 DOCUMENT         cnrs        LIEN 

Méningites à méningocoque

il y a 7 mois


1er juin 2014
Méningites à méningocoque : un pas décisif dans la compréhension du mécanisme pathogène de cette bactérie

Neisseria meningitidis ou méningocoque, est une bactérie responsable de méningites et de septicémies1, dont la forme la plus grave, purpura fulminans, est souvent fatale. Cette bactérie, qui réside naturellement dans le rhinopharynx de l'Homme, est pathogène lorsqu'elle atteint la circulation sanguine. Les équipes du Dr Sandrine Bourdoulous, directrice de recherche CNRS à l'Institut Cochin (CNRS/Inserm/Université Paris Descartes), et du Pr Xavier Nassif de l'Institut Necker Enfants Malades (CNRS/Inserm/Université Paris Descartes/AP-HP) ont décrypté les événements moléculaires par lesquels les méningocoques ciblent les vaisseaux sanguins et les colonisent. Ces travaux ouvrent la voie à de nouvelles perspectives thérapeutiques pour le traitement des troubles vasculaires provoqués par ce type d'infection invasive. Leur étude est publiée le 1er juin 2014 dans Nature Medicine.
Lorsque Neisseria meningitidis se multiplie dans le sang, cette bactérie interagit avec les cellules endothéliales qui tapissent l'intérieur des vaisseaux sanguins et adhère aux parois de ces derniers. Au niveau de la peau et des muqueuses, l'infection des vaisseaux par le méningocoque crée des lésions hémorragiques (dites purpuriques), dues à des saignements dans les tissus, qui peuvent rapidement évoluer vers une forme grave et souvent mortelle de la maladie (le purpura fulminans) Au niveau du cerveau, l'adhérence des méningocoques aux vaisseaux leur permet de franchir la barrière hémato-encéphalique2 et d'entraîner une méningite lorsqu'ils envahissent les méninges3. 

Les équipes de chercheurs ont décrypté le mécanisme d'adhérence de Neisseria meningitidis aux vaisseaux sanguins, étape au cœur de la pathogénicité de la bactérie. Du côté des vaisseaux sanguins, ils ont identifié le récepteur4 CD147, dont l'expression est essentielle à l'adhérence initiale du méningocoque aux cellules endothéliales. Si ce récepteur est absent, N. meningitidis ne peut pas s'implanter et coloniser les vaisseaux sanguins.

Du côté bactérien, il est connu que les processus d'adhérence du méningocoque aux cellules humaines reposent sur les pili de longs appendices filamenteux exprimés par la bactérie, composés de différentes sous-unités (les pilines). Cependant, les pilines spécifiquement impliquées dans l'adhérence de N. meningitidis aux vaisseaux sanguins n'avaient jamais été identifiées. Les chercheurs ont ainsi déterminé que deux pilines, PilE et PilV, interagissent directement avec le récepteur CD147. Sans elles, les méningocoques ne peuvent pas adhérer aux cellules endothéliales.

L'Homme est la seule espèce pouvant être infectée par les méningocoques. Pour montrer in vivo que les pilines PilE et PilV sont essentielles à la colonisation du réseau vasculaire par N. meningitidis, les chercheurs ont utilisé un modèle de souris immunodéficientes greffées avec de la peau humaine, conservant des vaisseaux humains fonctionnels au sein de la greffe et permettant ainsi de reproduire chez la souris les phases cutanées de l'infection observée chez l'Homme. Ces souris ont alors été infectées par des méningocoques possédant naturellement les pilines PilE et PilV, ou des méningocoques dans lesquels l'expression de ces pilines a été artificiellement supprimée. Les vaisseaux sanguins humains ne sont infectés que par les méningocoques possédant PilE et PilV ce qui confirme que ces deux pilines sont essentielles au processus de colonisation de la bactérie. 
Les chercheurs ont également montré, avec un modèle d'infection ex vivo5, que les vaisseaux cérébraux et les méninges, particulièrement riches en récepteurs CD147, sont permissifs à la colonisation par les méningocoques à la différence d'autres parties du cerveau. 

Les chercheurs souhaitent désormais développer un nouveau type de vaccin (en complément de ceux qui existent déjà) qui bloquerait l'interaction entre N. meningitidis et les récepteurs CD147 et empêcherait ainsi la colonisation des vaisseaux par la bactérie. 

Cette étude a été réalisée grâce au soutien des équipes du Dr Frank Lafont, du Centre d'infection et d'immunité de Lille (CNRS/Inserm/Institut Pasteur de Lille/Université Lille 1/Université Lille 2), du Pr Fabrice Chrétien, de l'unité Histopathologie humaine et modèles animaux de l'Institut Pasteur de Paris et du Dr Eric Chevet du Groupe de recherches pour l'étude du foie (Inserm/Université de Bordeaux).

 

 DOCUMENT         cnrs        LIEN 

LE CARBONIFÈRE

il y a 8 mois

carbonifère

Système du paléozoïque supérieur, le carbonifère est la période de l'ère primaire, de – 359 à – 299 millions d'années (durée 65 millions d'années), entre le dévonien et le permien. À la base, les sédiments marins sont pauvres en trilobites, mais riches en foraminifères (fusulines), brachiopodes, goniatites, etc., et localement en amphibiens. Les premières plantes du groupe des gymnospermes (conifères actuels) apparaissent. Les sédiments continentaux de la partie supérieure sont riches en végétaux (houilles), en insectes, arthropodes et en premiers restes de reptiles.
Au carbonifère, les masses continentales sont en contact (constituant un amalgame mouvant appelé la Pangée), mais elles continuent à se déplacer les unes par rapport aux autres, provoquant de grandes déformations (chaîne hercynienne) accompagnées de rotations de blocs, révélées par le paléomagnétisme, de l'Espagne à l'Europe centrale. Une glaciation encadrée par deux périodes chaudes affecte l'hémisphère Sud (Gondwana). Le carbonifère fait partie du cycle hercynien ou varisque.
La paléogéographie du carbonifère
Avec le carbonifère, après qu'en certaines régions une phase bretonne eut inauguré l'orogenèse hercynienne, une transgression générale, l'une des plus importantes des temps géologiques (comparable par son ampleur à celle du crétacé supérieur), s'avance sur toutes les masses continentales. Sur le continent nord-atlantique en Europe, c'est la transgression dinantienne. En Amérique du Nord, cette transgression est dite mississippienne. Le carbonifère saharien est également transgressif sur le continent nigritien.
Cette transgression marine dépose des calcaires. Les premières ébauches de chaîne hercynienne commencent à émerger, alimentant la sédimentation d'un flysch dans les fosses marines (faciès kulm ou culm en Europe).
Au carbonifère moyen et supérieur, la chaîne hercynienne commence à se structurer avec les phases sudète et asturienne, essentielles dans le domaine prototéthysien occidental (Amérique du Nord, Europe de l'Ouest).
Au carbonifère moyen, par suite du basculement de l'équateur, une zone d'évaporites se développe sous les latitudes subtropicales (régions septentrionales de l'Amérique du Nord, du Groenland et de l'Europe du Nord). Par ailleurs, l'équateur, qui passe alors par le sud des États-Unis et le sud de l'Europe, est le siège d'une exubérante végétation (forêt houillère) qui colonise les zones exondées par la surrection de la chaîne hercynienne. C'est en bordure de la chaîne hercynienne que se formeront les bassins houillers paraliques marins. Au carbonifère supérieur s'individualisent, à l'intérieur de la chaîne, des bassins houillers limniques continentaux.
La Pangée un moment réunie se dissocie, à la fin du carbonifère, en trois blocs qui connaîtront des évolutions paléogéographiques et bioclimatiques ultérieures différentes : au sud, le continent du Gondwana (boucliers brésilien, africain, arabe, australien) et, au nord, celui de l'Angara (plate-forme sibérienne) et le continent nord-atlantique.
La biostratigraphie et la chronostratigraphie du carbonifère
Le carbonifère constitue un système unique et se subdivise en deux parties ayant chacune rang de sous-système : dinantien et silésien en Europe, mississippien et pennsylvanien en Amérique du Nord.
Ces sous-systèmes se subdivisent eux-mêmes en séries : tournaisien et viséen pour le dinantien ; namurien, westphalien et stéphanien pour le silésien. Les autres dénominations correspondantes sont au nombre de douze et sont principalement définies à partir de stratotypes situés en Russie.
La paléontologie du carbonifère
Les animaux

À la suite des poissons, les batraciens se développent – avec l'apparition d'un groupe de grande taille, les stégocéphales – ainsi que les reptiles, dont le dimétrodon. Les premiers insectes sont connus au carbonifère. Parmi les microfossiles, les fusulines apparaissent. Elles constituent le fondement de la stratigraphie du permo-carbonifère mésogéen. Les trilobites et les goniatites restent très présentes.
Les végétaux

Les végétaux continuent leur explosion : les cryptogames vasculaires, se reproduisant par des spores, constituent de véritables forêts. Les groupes de ptéridophytes se diversifient, et certains atteignent des tailles d'arbres : filicales, lycopodiales (Lepidodendron, Sigillaria), équisétales (Calamites). Les gymnospermes (conifères actuels) sous forme de cordaïtes apparaissent.
Le volcanisme, la granitisation et les gisements métallifères au carbonifère
Au carbonifère inférieur, la mise en place de ceintures volcaniques sous-marines s'accompagne vers – 360 millions d'années d'une importante phase métallogénique en ce qui concerne le cuivre, l'or et les métaux de base, avec la formation en Europe des amas sulfurés de Neves Corvo (Portugal), de la ceinture sud-ibérique (Rio Tinto), de Mavan et Galmoy en Irlande, de la Toscane et de Chessy et Sain-Bel, en France.

Au carbonifère supérieur, un important volcanisme orogénique profond accompagne également la sédimentation du stéphanien. Avec les granitoïdes et l'hydrothermalisme connexes, il détermine la mise en place dans le socle ancien des hercynides d'Europe et d'Ouzbékistan, vers – 300 millions d'années, de minéralisations filoniennes économiques à or, antimoine, plomb, argent, zinc, et plus tardivement (vers – 280 à – 260 millions d'années) à zinc, plomb, fluorine et localement, uranium.

 

 DOCUMENT   larousse.fr    LIEN

 

LE NUMÉRIQUE ET LES NOUVELLES PRATIQUES D’INFORMATION

il y a 8 mois

08 LE NUMÉRIQUE ET LES NOUVELLES PRATIQUES D’INFORMATION
Us et abus d’internet : enjeux sociaux et psychologiques des Pratiques numériques

Le numérique touche désormais l’ensemble de notre vie et bouleverse nos habitudes, nos savoir-faire (lire, écrire, raconter, travailler, jouer), interroge nos certitudes et par là-même l’ensemble de nos paradigmes économiques, juridiques, technologiques et sociétaux. Les transformations engendrées par ce monde numérique se sont produites très rapidement et n’ont pas toujours laissé le temps de développer une réflexion structurée capable de les comprendre.

Les sciences et les technologies du numérique bouleversent en profondeur nos structures sociales, notre rapport à la connaissance, à la culture, aux territoires, à la société, et modifient jusqu’à la construction même de nos identités. Ces pratiques liées au numérique mettent en place de nouvelles valeurs susceptibles de donner lieu à de nouvelles pratiques culturelles. Le numérique nous invite à repenser nos rapports avec l’espace, le temps et l’image.

Cette société numérique dans laquelle nous évoluons aujourd’hui et dans laquelle nous vivrons demain promet d’être une aventure « fascinante et effrayante ». Cette journée d’étude va essayer d’étudier et d’examiner les pratiques liées au numérique.

Elle sera organisée en quatre axes :

1.       Connectivité : usages participatifs et espace public ;

2.       Éthique et humanités numériques ;

3.       Addictions et culture des écrans ;

4.       Information et accès aux savoirs.

Face à ces mutations numériques, il s’agit de proposer une approche critique, pour faire le bilan de leurs pratiques. Nous avons souhaité poser ces questions et inviter des chercheurs qui puissent les comprendre et y apporter des réponses.

Quatrième session : information et accès aux savoirs

Rémy Rieffel, sociologue des médias, professeur à l’Université Paris II Panthéon-Assas et à l’Institut français de presse (IFP) et directeur du Carism : Le numérique et les nouvelles pratiques d’information.

 

  DOCUMENT       canal-u.tv     LIEN

LANGAGE

il y a 8 mois

langage

Capacité, observée chez tous les hommes, d'exprimer leur pensée et de communiquer au moyen d'un système de signes vocaux et éventuellement graphiques (la langue). [Voir également troubles du langage.]


LINGUISTIQUE

Le langage est un système qui a pour finalité de réaliser un message d'un émetteur vers un récepteur. Cela permet d'englober plusieurs modes de communication formalisés : langue naturelle, langages artificiels (de programmation informatique, par exemple), ou tout autre code : Code de la route, langage des fleurs, etc. Chaque langue naturelle est un code original propre à l'espèce humaine ; les langages artificiels proviennent de simplifications et de conventions à partir des langues naturelles.
La hiérarchisation des signes

Ferdinand de Saussure
Ce système est dit « articulé » (A. Martinet), ce qui signifie que tout énoncé langagier doit pouvoir s'analyser à deux niveaux. Au niveau de la production de chaque langage, chaque unité s'articule en deux unités non significatives mais distinctives, par exemple entre le phonème (son émis) et le morphème (forme minimale de signification ; exemple : le pluriel en -s), entre le morphème et le syntagme (unité dans une organisation phrastique ; exemple : « le chien » dans « le chien dort »), etc. La combinaison des morphèmes, liée à la syntaxe (L. Bloomfield, Z. Harris), et l'assemblage des syntagmes forment une structuration hiérarchisée d'éléments constituants. C'est là que se situe la spécificité du langage humain, par opposition à un « langage » animal, dont on ne peut parler que par métaphore : les abeilles communiquent, mais leur mode de communication est exclusivement signalétique ; ce n'est donc pas un langage articulé.
Différentes écoles ont tenté de décrire l'intégration systémique du langage humain : les structuralistes (F. de Saussure, L. T. Hjelmslev) ont mis l'accent sur les oppositions et les complémentarités dans les distributions de phonèmes, morphèmes, lexèmes, etc., d'où résulterait le fonctionnement du système langagier. Les dernières théories de N. Chomsky ont permis d'avancer l'hypothèse d'une organisation en modules, c'est-à-dire en petites unités de traitement distribuées en réseaux réglés pour permettre la communication de l'information.


Les fonctions du langage

La notion de fonction du langage a été mise en valeur par l'école de Prague. La fonction principale est celle de communication (dite aussi référentielle ou cognitive). Cependant, selon les caractères de la communication, il existe différentes fonctions du langage. R. Jakobson a distingué six fonctions qui, dans toute langue, se rapportent chacune à l'un des pôles fondamentaux de la communication linguistique. Toute communication fait en effet intervenir six facteurs : l'émetteur, le destinataire, le contexte, ou référent, le code commun à l'émetteur et au destinataire, le canal (le support physique) de la communication, le message.
Le linguiste distingue ainsi la fonction émotive, qui centre le message sur l'émetteur, le locuteur (exemple : « Quel sale temps ce week-end ! »), la fonction conative, qui vise à influencer le destinataire (exemple : « Corrige-moi si je me trompe » ; « Viens ici »!), la fonction référentielle (ou dénotative, ou cognitive), qui renvoie au contexte (exemple : « Le chien est un animal »), la fonction phatique, qui renvoie au canal ou au contact (exemple : « Allo, ne coupez pas »), la fonction métalinguistique, qui renvoie au code lui-même (exemple : « Porte-manteau est invariable ») la fonction poétique, qui concerne le message en lui-même.


Les universaux du langage

On peut dénombrer dans le langage un certain nombre d'universaux, parmi lesquels on peut distinguer des universaux substantiels et des universaux conditionnels.
Dans la catégorie des universaux substantiels entreraient le prédicat (ce qu'on dit d'un sujet dans un énoncé quelconque) ainsi que les mots fonctionnels. En effet, dans toutes les langues du monde existent des formes (noms ou verbes) susceptibles de recevoir la fonction prédicative et se trouvent également des morphèmes ne désignant rien par eux-mêmes (ils ne renvoient pas aux choses), mais dont la fonction est d'établir tel ou tel rapport entre les unités du lexique : les prépositions, les postpositions, les conjonctions, etc.
Les universaux conditionnels mettent en relation deux phénomènes : ils sont formulés sous une forme d'implication (si p, alors q). Ainsi, dans les langues à prépositions, le génitif suit presque toujours le nom régissant ; dans les langues à postpositions, il le précède presque toujours. Les langues à ordre PSO (prédicat-sujet-objet) sont toujours à prépositions (l'arabe, par exemple). Avec une fréquence qui ne peut être due au hasard, les langues à ordre SOP (sujet-objet-prédicat) sont postpositionnelles (le japonais, les langues altaïques, le birman, par exemple). [→ langue.]

DOCUMENT larousse.fr LIEN

document PDF LIEN

pédagogie du chant

il y a 8 mois

pédagogie du chant
Cet article est extrait de l'ouvrage Larousse « Dictionnaire de la musique ».
L'enseignement du chant a pour but de permettre au chanteur d'exploiter au mieux ses possibilités innées. Il est d'autant plus malaisé qu'aucun instrument n'est visible ni palpable, et que l'élève ne perçoit qu'une audition interne, et tronquée, de sa véritable voix. Le geste vocal à enseigner ne repose donc que sur la perception de sensations physiques, liées aux sensations auditives correspondantes. La difficulté primordiale consiste à déceler progressivement à quel type vocal appartient l'élève, alors que celui-ci ne peut encore donner l'exacte mesure de ses moyens. Or, ce classement dépend non seulement de l'étendue vocale apparente du sujet, mais de sa véritable tessiture, de son timbre, de la puissance éventuelle de la voix, mais encore de nombreux autres caractères propres tenant au milieu ethnique, acoustique, culturel, psychologique et physiologique de l'individu. Si l'essentiel de l'appareil vocal résulte, ainsi que le définit Georges Loiseau (Notes sur le chant, Paris, 1947) du « synchronisme entre le diaphragme (appui du souffle), le larynx et les résonateurs (toutes les cavités creuses situées au-dessus du larynx) », cette triade est liée « à la multiplicité des résultantes individuelles, à la personnalité et à l'individualité propre » de chacun. D'où la diversité des instruments vocaux, celle aussi des facteurs d'application de cet enseignement, qui varie avec chaque sujet dans la recherche d'un but commun, la parfaite disponibilité de la voix, sur toute son étendue, aux nuances et aux colorations les plus diverses, à une parfaite diction, et, enfin, à toutes les sollicitations d'expression ou de virtuosité du texte musical.
Enfin, dans le domaine de l'application, cet enseignement repose sur une autre ambiguïté, car si toutes les méthodes convergent pratiquement sur un mode de respiration (de préférence nasale), qui consiste à emplir d'abord la base des poumons par l'écartement des côtes et l'appui sur le diaphragme, l'expiration du souffle pose d'autres problèmes, car elle ne détermine pas a priori la bonne émission du son, et c'est cette émission qui entraîne a posteriori l'écoulement exact de l'air à expulser. La reconnaissance par le maître et par l'élève de la nature précise du son est donc primordiale dans toutes les pédagogies.
Ces dernières se rejoignent sur certains principes élémentaires de base : le travail vocal s'exécute d'abord sur des valeurs longues, lentes, bien liées entre elles, sans l'aide des consonnes et uniquement sur les notes du médium, celles qui précisément appartiennent en commun aux différents registres de la voix ; mais elles peuvent différer quant à leur application, puisqu'elles dépendent de la langue parlée (et entendue) par le sujet. Mais leur but commun étant la recherche de l'homogénéité du timbre et des voyelles sur toute l'étendue de la voix, leur premier objet est de réaliser la fusion entre ses divers registres par l'assombrissement progressif de la couleur des voyelles, de la note la plus grave à la note la plus aiguë, ce travail étant étroitement lié à la phonation de chaque langue. Le rejet de cette règle, tel qu'il a pu apparaître à certaines époques de l'histoire du chant ou de l'opéra, entraîne ce que l'on nomme parfois le « chant ouvert » (par assimilation à la couleur des voyelles ouvertes) qui, en obstruant le larynx, déforme la diction du texte, compromet l'émission des notes aiguës et leur disponibilité aux nuances. Or, la pose de voix consciente et maîtrisée est la condition préalable à l'interprétation musicale.
En effet, la pédagogie du chant comporte également la formation musicale de l'élève chanteur, qui doit être identique à celle de l'élève instrumentiste, à quelques spécialisations près. Elle est généralement assurée par un spécialiste, alors que la recherche de l'émission vocale et l'étude de l'interprétation peuvent incomber au même enseignant : ce dernier doit alors connaître non seulement les principales méthodes de chant des grands auteurs du passé, mais encore l'histoire des styles intimement liée à l'évolution de l'art lyrique. Il est donc souhaitable que la pédagogie du chant repose aussi sur une éducation de l'audition musicale de l'élève, facteur premier de toute reproduction vocale, par l'écoute critique des grands exemples du passé et du présent. C'est par la reproduction inconsciente de la parole d'autrui que le nouveau-né apprend l'usage de la parole, avec les qualités et défauts inhérents au milieu ambiant. Une fois mis en possession d'une technique vocale de base, l'élève peut ensuite se spécialiser dans une ou plusieurs branches de l'art lyrique, ou subir l'enseignement approprié à l'art de la scène, compte tenu du fait que toute pédagogie vocale doit tenir compte de la constante disponibilité de l'élève à toutes les sollicitations corporelles du concert ou de la scène.
Sans entrer ici dans les nombreuses disciplines afférent à cette pédagogie, il faut noter que si, depuis des siècles, de nombreux auteurs ont déploré l'appauvrissement de la pédagogie dans le domaine de la connaissance musicale, c'est son aspect technique qui s'est plus récemment dégradé et a conduit le chanteur à des spécialisations arbitraires et restrictives, sans justifications historiques, notamment vers le milieu de notre siècle où une divergence s'est créée entre une pédagogie axée sur la recherche d'un maximum d'intensité vocale et une autre tout aussi exclusivement attachée à une préciosité excessive dans l'expression de tous les styles ; or, s'il est patent que Verdi, Wagner, Puccini ou Bizet, par exemple, ont souvent prescrit la nuance pianissimo, rarement respectée par les interprètes, Monteverdi, Haendel, Mozart, Schubert, Debussy ou Fauré ont tout aussi souvent réclamé la nuance forte que leur refusent parfois les chanteurs.

 

   DOCUMENT   larousse.fr    LIEN

 

Le point sur... les gènes homéotiques

il y a 9 mois

Le point sur... les gènes homéotiques
par Naoum Salamé — Dernière modification 18/02/2012 10:06
Hervé Le Guyader, Professeur au Laboratoire de Biologie moléculaire et cellulaire du Développement de l'Université Pierre et Marie Curie, répond à nos questions.

 

Qu’est-ce qu’un gène homéotique ?

Un gène homéotique est, par définition, un gène dont la mutation produit une homéose, c’est-à-dire l’apparition d’un organe bien formé, mais à un mauvais emplacement du corps. Un gène homéotique est donc défini par rapport au phénotype qu’il entraîne lorsqu’il est muté, et non par sa séquence nucléotidique. Les premières observations de phénotypes homéotiques remontent à 1894, bien avant la découverte des gènes et la définition du mot phénotype !  
C’est William Bateson, qui en étudiant les variations intraspécifiques chez un coléoptère, observa des mutations homéotiques, notamment l’apparition de pattes à la place des antennes. Il fit d’ailleurs des observations similaires chez les végétaux, où les étamines pouvaient par exemple être remplacées par des pétales. Bateson comprit qu’un segment de l’organisme possède toutes les potentialités, et qu’au cours du développement, un « choix » s’opère ; lorsque ce choix est faux, le segment ne possède pas les appendices ou organes attendus. On apprendra plus tard que ce sont des  gènes qui déterminent ces choix. 

Les gènes homéotiques ne possèdent donc pas nécessairement la fameuse séquence appelée « homéoboîte » ?

Non, et la confusion est fréquente : en 1983, deux équipes de recherche distinctes, celle de Walter J. Gehring et celle de Thomes C. Kaufman , découvrent que tous les gènes homéotiques connus chez la drosophile possèdent une séquence commune de 180 paires de bases, qu’on nomme « homéboîte » (en anglais homeobox). La tentation est grande d’appeler alors « gène homéotique » tout gène  à homéoboîte…Cette définition s’applique effectivement chez la drosophile , et chez tous les animaux, mais il faut bien préciser deux points. 
D’une part, la réciproque est fausse : les chercheurs se sont très vite rendus compte que tous les gènes à homéoboîte ne sont pas des gènes homéotiques, c’est-à-dire que leurs mutations ne donnent pas nécessairement un phénotype homéotique. C’est le cas des gènes bicoïd (1), engrailed, fushi tarazu  (2), ou encore des gènes Pax (3), qui sont  des gènes du développement, mais pas des gènes homéotiques.  
D’autre part, cette définition ne s’applique pas aux végétaux : les gènes entraînant des phénotypes homéotiques chez les végétaux ne possèdent pas l’homéoboîte.

Quel rôle jouent les gènes homéotiques chez les différents organismes ?

Chez les arthropodes comme la drosophile, animal modèle des laboratoires, les gènes homéotiques déterminent l’identité de chaque segment de l’animal : ils dirigent ainsi l’apparition de pattes, d’antennes, ou de balanciers suivant les segments. Le phénotype « pattes à la place des antennes », décrit par Bateson, est dû chez la drosophile à une mutation dans le complexe de gènes homéotiques Antennapedia (4). Cette spécification des segments se fait suivant un axe antéro-postérieur, et il est fortement corrélé à l’ordre des gènes sur les chromosomes : c’est la règle de colinéarité. En parcourant l’ADN de 3’ vers 5’, on trouve des gènes dont les lieux d’action s’échelonnent de l’avant vers l’arrière de l’animal. 
Chez les vertébrés, la majeure partie des gènes homéotiques intervient dans l’identité des différentes parties du corps, suivant l’axe antéro-postérieur, -mais pas dans celle de l’axe dorso-ventral. Une partie d’entre eux joue également un rôle dans l’édification des membres. Chez la souris par exemple, les gènes homéotiques, regroupés en 4 complexes appelés HOX A à HOX D, interviennent dans la régionalisation de la colonne vertébrale et du système nerveux central. Des mutations de ces gènes entraînent par exemple l’apparition de vertèbres cervicales à l’endroit des de vertèbres dorsales ou encore des lombaires à la place de dorsales.  
Chez les végétaux, les gènes à MADSbox déterminent la mise en place des différentes verticilles de pièces florales : sépales, pétales, carpelle, étamines...

Quel est le mode d’action des gènes à homéoboîte ? 

Les gènes à homéoboîte sont des régulateurs de transcription, activateurs ou inhibiteurs suivant les cas : ils sont en quelque sorte des gènes « maîtres », qui dirigent l’expression d’autres gènes. Prenons l’exemple des gènes homéotiques animaux, qui possèdent tous l’homéoboîte : cette séquence code un peptide de 60 acides aminés, appelé homéodomaine, qui possède dans sa structure secondaire trois hélices a lui permettant de se fixer à l’ADN. L’homéodomaine régule ainsi la transcription d’autres gènes. Chez les végétaux, la MADSbox joue un rôle similaire : elle code un peptide possédant un site de fixation à l’ADN.

Les gènes homéotiques sont très conservés au sein du monde vivant. En quoi ont-ils pu participer à la diversité des êtres vivants ?

Lorsqu’en 1983, Gehring et Kaufman découvrent « l’homéoboîte », on crible des banques connues de séquences de gènes pour savoir si cette séquence est présente chez d’autres organismes que la drosophile : on  trouve d’abord des gènes à homéoboîte chez la souris, chez l’homme, puis chez tous les vertébrés. La plupart de ces gènes s’avèrent homologues chez les arthropodes et chez les vertébrés. De plus, ils sont regroupés en complexes dans les deux cas. Or les paléontologues nous disent que les arthropodes et les cordés se sont séparés il y a 540 millions d’années ! L’ancêtre commun à ces deux embranchements possédait donc déjà des gènes à homéoboîte, qui se sont probablement dupliqués au sein d’un complexe, qui se scindera plus tard en deux sous-complexes chez la drosophile, et se dupliquera pour en donner 4 chez les vertébrés, créant de la diversité.  
Les gènes à homéoboîte forment une famille multigénique, les gènes homéotiques en sont une sous-famille, et les gènes Hox des animaux constituent encore un sous-ensemble homogène de la famille des gènes homéotiques.  
Les gènes à homéoboîte sont très anciens, puisqu’on les trouve chez les plantes, chez les champignons…. Il en va de même pour les gènes à MADSbox découverts chez les végétaux, et qui sont présents chez presque tous les Eucaryotes, des unicellulaires aux vertébrés (5) Des gènes très anciens, par duplication et remaniements, ont été « recrutés » au cours de l’évolution pour accomplir de nouvelles fonctions. 

Propos recueillis par  
Anne-Laure Monnier

 (1) bicoïd code une protéine déterminant la polarité antéro-postérieure de l’embryon  de drosophile 
(2) engrailed et fushi tarazu sont des gènes intervenant dans la segmentation de l’embryon de Drosophile 
(3) Parmi les gènes Pax des vertébrés, on trouve une famille multigénique qui possède une paired-box , séquence présente dans trois gènes de segmentation de la drosophile. Cette famille de gènes Pax interviendrait dans la formation du tube neural, du rein et de l’œil. Pax 6 est un gène de cette famille, homologue de eyeless et aniridia. 
(4) Drosophila melanogaster possède deux grands complexes de gènes homéotiques : Antennapedia et Bithorax , qui correspondent à la scission d’un complexe ancestral HOX.  
(5) le facteur immunitaire SRF, chez les vertébrés, possède une MADSbox.

 

DOCUMENT          acces.ens-lyon.fr           LIEN

LE TEMPS DES NEURONES

il y a 9 mois

LE TEMPS DES NEURONES
Quinze minutes de plongée dans le monde étrange et fascinant de nos cellules nerveuses. Grâce aux techniques de la microcinématographie, les phénomènes les plus complexes qui se déroulent dans le cerveau sont enfin montrés. Nous voyons naître les cellules nerveuses, nous les voyons grandir, travailler, mourir. Ces images mettent en évidence deux acteurs principaux : les cellules gliales, responsables de l'architecture et du nettoyage du cerveau, et les neurones qui ont pour fonction de communiquer en produisant des signaux. Un voyage dans le moi le plus intime.

GénériqueAuteurs : Marcel Pouchelet, William Rostène et Jean-François Ternay Réalisateur : Jean-François Ternay Producteur : CNRS Audiovisuel Diffuseur : CNRS Diffusion

 

  DOCUMENT       canal-u.tv     LIEN 

PHOTON

il y a 9 mois

photon
(de électron)


Quanton spécifique de la lumière, véhicule des interactions électromagnétiques.


Introduction
Les phénomènes électromagnétiques, allant de l'électricité et du magnétisme aux rayons X, en passant par les ondes radio et la lumière, ont été rassemblés dans un cadre théorique unique par James Clerk Maxwell vers 1865. Depuis cette date, les équations de Maxwell ont joué un rôle central dans l'histoire de la physique, et notamment dans l'origine et les développements de deux théories « révolutionnaires » apparues au début du xxe s. : la relativité et la mécanique quantique.
Une découverte essentielle, ayant marqué les débuts de ces deux théories, est le concept de « grain » ou quantum d'énergie lumineuse, devenu plus tard le photon. Pressenti par Max Planck en 1900, introduit réellement par Albert Einstein en 1905, le concept de photon s'est immédiatement révélé très fructueux dans l'interprétation de certaines expériences. Cependant, la notion de « grain » d'énergie lumineuse semblait alors totalement contradictoire avec les équations de Maxwell. Ces équations, qui prévoient l'existence d'ondes lumineuses, formaient pourtant une des bases les plus solides de la physique de la fin du xixe s.
La résolution de ces contradictions devait venir de la toute jeune mécanique quantique, grâce à laquelle Paul Dirac put effectuer en 1927 une synthèse entre les propriétés à la fois « ondulatoires » et « corpusculaires » que semble posséder le photon. La théorie de Dirac, développée ensuite sous le nom d'électrodynamique quantique, est aujourd'hui fondamentale pour la physique des hautes énergies, dont un résultat spectaculaire a été la mise en évidence des bosons intermédiaires Z0, W+ et W− au Cern en 1983. Par ailleurs, l'apparition du laser au début des années 1960 a conduit au développement rapide d'un nouveau champ de recherches, l'optique quantique, dans laquelle les propriétés quantiques de la lumière jouent un rôle essentiel. En particulier, il est maintenant possible d'observer directement les propriétés ondulatoires et corpusculaires d'un photon unique, matérialisant ainsi des concepts vieux de plus de cinquante ans.


Historique de la notion de photon
L'introduction du concept de photon ne s'est pas faite sans difficultés ; les étapes essentielles de ces débuts se situent entre 1900 et 1922.

Un matériau chauffé à une température suffisamment élevée émet de la lumière : il devient incandescent. Le spectre de la lumière émise, c'est-à-dire la répartition de l'énergie lumineuse en fonction de la fréquence (responsable de la couleur que nous voyons), devrait dépendre du matériau utilisé. Cependant, Gustav Kirchhoff montra en 1860, par un argument thermodynamique très général, que ce spectre dépend uniquement de la température – et non du matériau particulier – à condition que celui-ci soit parfaitement absorbant ; on parle alors de « corps noir ». Cette découverte déclencha un intense travail expérimental et théorique, afin, d'une part de réaliser concrètement un tel corps noir et de mesurer son spectre et, d'autre part, de calculer la loi inconnue ρ (ν, T) exprimant la quantité d'énergie rayonnée à la fréquence ν par un corps noir chauffé à la température T.
À la fin du xixe s., les méthodes de mesure de l'émissivité du corps noir avaient beaucoup progressé, mais les tentatives de calculs de ρ (ν, T) demeuraient infructueuses : deux lois différentes semblaient s'appliquer aux régions « basses fréquences » et « hautes fréquences » des spectres observés. Enfin, en 1900, Planck parvenait à la bonne formule par une démarche d'abord intuitive. En fait, le caractère révolutionnaire de cette découverte apparut réellement lorsque Planck parvint à justifier rigoureusement sa formule, en admettant que les échanges d'énergie entre la lumière et le matériau s'effectuaient par quanta, c'est-à-dire par « paquets » indivisibles. La valeur du quantum d'énergie, dépendant de la fréquence ν, est égale à hν, où h est une constante universelle, maintenant baptisée « constante de Planck ».
Rien, dans la physique de cette époque, ne pouvait justifier l'hypothèse de Planck : la loi d'émissivité du corps noir, immédiatement confirmée par l'expérience, ouvrait donc la voie à des théories entièrement nouvelles.
Einstein et l'effet photoélectrique

En 1905, le mystère des quanta de Planck restait entier ; on ignorait si la lumière, les atomes, ou seulement les échanges d'énergie devaient être quantifiés. C'est alors qu'Einstein proposa que la lumière elle-même soit formée de quanta (qui devaient être baptisés photons seulement en 1926) ; cette hypothèse permettait d'interpréter de façon simple l'effet photoélectrique.
Cet effet, connu depuis la fin du xixe s., consiste en l'émission d'électrons par une plaque métallique éclairée par un faisceau lumineux. Deux observations semblaient défier toute explication : tout d'abord, l'effet n'existe que pour des fréquences lumineuses ν supérieures à une certaine fréquence seuil νs ; ensuite, l'énergie cinétique des électrons émis dépend de la fréquence, c'est-à-dire de la couleur, et non de l'intensité de la lumière utilisée. L'interprétation fournie par Einstein fut alors la suivante : la lumière est formée de grains d'énergie hν et l'absorption d'un de ces grains provoque l'émission d'un électron par la plaque métallique. L'énergie cinétique Ec communiquée à l'électron est alors l'énergie hν, diminuée d'une quantité fixe Ws nécessaire pour arracher l'électron au matériau, ce qui se représente par l'équation : 
Ec = hν − Ws
Cette équation très simple rend compte de tous les faits expérimentaux observés : 
– l'énergie cinétique Ec d'un électron émis ne dépend pas de l'intensité de la lumière (c'est-à-dire du nombre de photons) mais de sa fréquence ; Ec augmente du côté « bleu » du spectre visible (hautes fréquences) ; 
– pour que l'électron soit émis, l'énergie Ec doit être positive ; il existe donc un seuil à l'effet photoélectrique, c'est-à-dire une valeur minimum hνs = Ws en dessous de laquelle aucun électron n'est émis.
Le seuil dépend du métal utilisé ; les valeurs les plus basses de hνs sont obtenues pour les métaux alcalins.
Des expériences réalisées par Robert Millikan, en 1915, confirmèrent toutes ces prédictions.
L'énergie seuil fut mesurée pour plusieurs métaux, et la valeur de h obtenue par ces expériences se révéla être en très bon accord avec celle obtenue par Planck à partir de la loi d'émissivité du corps noir : on pouvait donc penser que le photon allait avoir gain de cause. En fait, rien n'était encore joué, puisque Millikan et, avec lui, de nombreux autres physiciens de renom rejetaient l'interprétation de l'effet photoélectrique donnée par Einstein. Ce conflit provenait de la contradiction apparente qui existe entre le concept de photon – particule de lumière – et les équations de Maxwell de l'électromagnétisme – qui impliquent l'existence d'ondes lumineuses.


Compton et la diffusion électron-photon

Cependant, une nouvelle expérience en faveur du photon « corpusculaire » devait emporter l'adhésion de la communauté des physiciens : il s'agit de l'étude par Arthur Compton de la « collision » d'un électron et d'un photon. Les équations de l'effet Compton décrivent le choc d'un électron et d'un photon comme un choc de particules matérielles, en assurant la conservation de l'énergie et de la quantité de mouvement. Le résultat du calcul est que le photon est dévié, et sa fréquence légèrement changée. La valeur théorique de ce décalage de fréquence fut confirmée expérimentalement par Compton, ce qui imposa définitivement la nécessité du concept de photon.
En 1918, Planck reçut le prix Nobel pour la découverte du quantum d'action ; Einstein, en 1922, pour son interprétation de l'effet photoélectrique ; Compton, en 1927, pour la découverte de l'effet qui porte son nom. Peu de temps après, les progrès réalisés par la théorie quantique allaient permettre une description synthétique des propriétés à la fois « ondulatoires » et « corpusculaires » de la lumière.
Le photon, particule élémentaire
Fiche d’identité du photon
Le photon est une particule de masse nulle, de spin unité ; son énergie est E = hν, et sa quantité de mouvement est p = (h/2π) k où k est le vecteur d'onde associé à la particule.
Interactions photon-matière
Les interactions des photons avec des atomes ou d'autres particules peuvent s'accompagner de transfert d'énergie, d'impulsion ou de moment cinétique. Par exemple, des photons polarisés circulairement peuvent transférer leur moment cinétique à une vapeur atomique : c'est le principe du pompage optique, inventé par Alfred Kastler en 1950, utilisé notamment dans les lasers.
De même, la pression de radiation exercée par un faisceau lumineux sur des atomes peut être utilisée pour ralentir ou dévier un jet d'atomes. Ces phénomènes sont observés dans le domaine des basses énergies, c'est-à-dire pour des valeurs de hν très inférieures à l'énergie de masse mec2 d'un électron. Lorsque hν devient plus grand que 2 mec2 (domaine des rayons γ), l'électrodynamique quantique relativiste prédit la possibilité pour un photon de se transformer en une paire électron-positon (le positon, également appelé positron, étant l’antiparticule de l’électron) ; la réaction inverse (annihilation d'une paire) est possible également, et de telles réactions sont couramment observées dans les accélérateurs de particules.


Le photon dans le modèle standard
Dans les théories contemporaines, le photon est le médiateur de l'interaction électromagnétique, c'est-à-dire que cette interaction est décrite comme un échange de photons. À très haute énergie, Steven Weinberg, Abdus Salam et Sheldow Glashow ont montré que l'interaction électromagnétique s'unifie avec l'interaction faible, responsable de certaines réactions de désintégration. Les médiateurs de cette interaction électrofaible sont les bosons intermédiaires Z0, W+ et W−.

 

DOCUMENT   larousse.fr    LIEN

 

LANGAGE

il y a 9 mois

 langage
Capacité, observée chez tous les hommes, d'exprimer leur pensée et de communiquer au moyen d'un système de signes vocaux et éventuellement graphiques (la langue). [Voir également troubles du langage.]


LINGUISTIQUE

Le langage est un système qui a pour finalité de réaliser un message d'un émetteur vers un récepteur. Cela permet d'englober plusieurs modes de communication formalisés : langue naturelle, langages artificiels (de programmation informatique, par exemple), ou tout autre code : Code de la route, langage des fleurs, etc. Chaque langue naturelle est un code original propre à l'espèce humaine ; les langages artificiels proviennent de simplifications et de conventions à partir des langues naturelles.


La hiérarchisation des signes


Ce système est dit « articulé » (A. Martinet), ce qui signifie que tout énoncé langagier doit pouvoir s'analyser à deux niveaux. Au niveau de la production de chaque langage, chaque unité s'articule en deux unités non significatives mais distinctives, par exemple entre le phonème (son émis) et le morphème (forme minimale de signification ; exemple : le pluriel en -s), entre le morphème et le syntagme (unité dans une organisation phrastique ; exemple : « le chien » dans « le chien dort »), etc. La combinaison des morphèmes, liée à la syntaxe (L. Bloomfield, Z. Harris), et l'assemblage des syntagmes forment une structuration hiérarchisée d'éléments constituants. C'est là que se situe la spécificité du langage humain, par opposition à un « langage » animal, dont on ne peut parler que par métaphore : les abeilles communiquent, mais leur mode de communication est exclusivement signalétique ; ce n'est donc pas un langage articulé.
Différentes écoles ont tenté de décrire l'intégration systémique du langage humain : les structuralistes (F. de Saussure, L. T. Hjelmslev) ont mis l'accent sur les oppositions et les complémentarités dans les distributions de phonèmes, morphèmes, lexèmes, etc., d'où résulterait le fonctionnement du système langagier. Les dernières théories de N. Chomsky ont permis d'avancer l'hypothèse d'une organisation en modules, c'est-à-dire en petites unités de traitement distribuées en réseaux réglés pour permettre la communication de l'information.


Les fonctions du langage

La notion de fonction du langage a été mise en valeur par l'école de Prague. La fonction principale est celle de communication (dite aussi référentielle ou cognitive). Cependant, selon les caractères de la communication, il existe différentes fonctions du langage. R. Jakobson a distingué six fonctions qui, dans toute langue, se rapportent chacune à l'un des pôles fondamentaux de la communication linguistique. Toute communication fait en effet intervenir six facteurs : l'émetteur, le destinataire, le contexte, ou référent, le code commun à l'émetteur et au destinataire, le canal (le support physique) de la communication, le message.
Le linguiste distingue ainsi la fonction émotive, qui centre le message sur l'émetteur, le locuteur (exemple : « Quel sale temps ce week-end ! »), la fonction conative, qui vise à influencer le destinataire (exemple : « Corrige-moi si je me trompe » ; « Viens ici »!), la fonction référentielle (ou dénotative, ou cognitive), qui renvoie au contexte (exemple : « Le chien est un animal »), la fonction phatique, qui renvoie au canal ou au contact (exemple : « Allo, ne coupez pas »), la fonction métalinguistique, qui renvoie au code lui-même (exemple : « Porte-manteau est invariable ») la fonction poétique, qui concerne le message en lui-même.


Les universaux du langage

On peut dénombrer dans le langage un certain nombre d'universaux, parmi lesquels on peut distinguer des universaux substantiels et des universaux conditionnels.
Dans la catégorie des universaux substantiels entreraient le prédicat (ce qu'on dit d'un sujet dans un énoncé quelconque) ainsi que les mots fonctionnels. En effet, dans toutes les langues du monde existent des formes (noms ou verbes) susceptibles de recevoir la fonction prédicative et se trouvent également des morphèmes ne désignant rien par eux-mêmes (ils ne renvoient pas aux choses), mais dont la fonction est d'établir tel ou tel rapport entre les unités du lexique : les prépositions, les postpositions, les conjonctions, etc.
Les universaux conditionnels mettent en relation deux phénomènes : ils sont formulés sous une forme d'implication (si p, alors q). Ainsi, dans les langues à prépositions, le génitif suit presque toujours le nom régissant ; dans les langues à postpositions, il le précède presque toujours. Les langues à ordre PSO (prédicat-sujet-objet) sont toujours à prépositions (l'arabe, par exemple). Avec une fréquence qui ne peut être due au hasard, les langues à ordre SOP (sujet-objet-prédicat) sont postpositionnelles (le japonais, les langues altaïques, le birman, par exemple). [→ langue.]

 

  DOCUMENT   larousse.fr    LIEN

Découverte d'un système « immunitaire » chez les virus géants

il y a 9 mois

Paris, 11 mars 2016
Découverte d'un système « immunitaire » chez les virus géants

Des chercheurs de l'unité de recherche sur les maladies infectieuses tropicales émergentes (Aix-Marseille Université / CNRS / IRD / INSERM) – située à l'IHU Méditerranée Infection - avec le soutien de l'AP-HM - viennent de mettre en évidence l'existence d'un système de défense chez les virus géants capable d'empêcher l'infection de ces derniers par des virophages. Un virophage étant lui-même un virus capable d'infecter d'autres virus. Il s'agit de la première démonstration qu'un virus peut avoir un système « immunitaire » de défense contre un autre virus. Ces travaux viennent de faire l'objet d'une publication dans Nature.
L'équipe du Pr Didier Raoult a été la première à rapporter l'existence de virus géants en 2004 (Raoult et al. 2004). Mimivirus est ainsi le premier virus géant découvert et quelques années plus tard cette même équipe décrit une nouvelle entité, les virophages qui sont des virus capables d'infecter d'autres virus (La Scola et al. 2008). Depuis leur découverte, les virus géants ont révélé un certain nombre de caractéristiques uniques qui vont à l'encontre de  la définition classique d'un virus, comme par exemple leur taille importante, la taille et la complexité de leur génome, leur infection possible par des virophages et la présence de transpovirons (Desnues et al. 2012) . 
Dans cette étude publiée dans le journal Nature, les chercheurs ont observé qu'un groupe parmi les Mimivirus (appelé lignées A) a développé une résistance contre l'infection par un virophage nommé Zamilon, alors que les Mimivirus des lignées B et C sont sensibles à l'infection par ce virophage. C'est en essayant de comprendre ce mécanisme de résistance au virophage si particulier et unique dans le monde viral que les chercheurs ont trouvé la présence d'une  séquence répétée d'ADN de Zamilon qui sert à accrocher le virophage uniquement dans la lignée A. Ce complexe a ainsi été nommé MIMIVIRE (MIMIvirus VIrophage Résistance Elément) et présente des similarités fonctionnelles avec le système de défense CRISPR-Cas existant jusqu'alors uniquement chez les bactéries et les archées et comportant une enzyme déroulant l'ADN et une autre le coupant. 
L'inactivation du complexe MIMIVIRE a permis de restaurer la susceptibilité de Mimivirus à l'infection par le virophage. Les protéines partenaires comprises dans ce complexe MIMIVIRE sont impliquées dans la dégradation spécifique de l'ADN étranger. Le système de défense virale, MIMIVIRE, confère ainsi une immunité aux virus géants qui ont pu intégrer dans leur génome l'ADN du virophage infectant. 
Ceci est la première démonstration qu'un virus peut avoir un système « immunitaire » de défense contre un autre virus et renforce l'idée d'un quatrième monde des microbes.

 

 DOCUMENT         cnrs        LIEN 

Imiter les virus pour livrer des médicaments au coeur des cellules

il y a 10 mois

Paris, 27 août 2015
Imiter les virus pour livrer des médicaments au coeur des cellules

Les virus ont une aptitude à détourner le fonctionnement des cellules pour les infecter. En s'inspirant de leur mode d'action, des chercheurs du CNRS et de l'Université de Strasbourg ont conçu un « virus chimique » capable de franchir la double couche de lipides qui délimite les cellules, puis de se désagréger dans le milieu intracellulaire afin d'y libérer des molécules actives. Pour cela, ils ont utilisé deux polymères de leur conception, qui ont notamment des capacités d'auto-assemblage ou de dissociation selon les conditions. Ces travaux, fruit d'une collaboration entre chimistes, biologistes et biophysiciens, sont publiés dans l'édition du 1er septembre de la revue Angewandte Chemie International Edition.
Les progrès biotechnologiques donnent accès à un trésor de molécules ayant un potentiel thérapeutique. Beaucoup de ces molécules sont actives uniquement à l'intérieur des cellules humaines et restent inutilisables car la membrane lipidique qui délimite les cellules est une barrière qu'elles ne peuvent pas franchir. L'enjeu est donc de trouver des solutions de transfert aptes à traverser cette barrière. 

En imitant la capacité des virus à pénétrer dans les cellules, des chimistes du Laboratoire de conception et application de molécules bioactives (CNRS/Université de Strasbourg) cherchent à concevoir des particules à même de libérer des macromolécules actives uniquement au sein des cellules. Pour cela, ces particules doivent obéir à plusieurs contraintes souvent contradictoires. Elles doivent être stables dans le milieu extracellulaire, capables de se lier aux cellules afin d'être internalisées mais être plus fragiles à l'intérieur des cellules pour libérer leur contenu. Avec deux polymères de leur conception, les chercheurs ont réussi à construire un "virus chimique" remplissant les conditions nécessaires pour transférer directement des protéines actives dans la cellule.

Concrètement, le premier polymère (pGi-Ni2+) sert de support aux protéines, qui s'y fixent. Le second polymère (πPEI), récemment breveté, encapsule cet ensemble grâce à ses charges positives qui se lient aux charges négatives du pGi-Ni2+. Les particules obtenues (30-40 nanomètres de diamètre) sont capables de reconnaitre la membrane entourant les cellules et de s'y lier. Cette liaison active une réponse cellulaire : la nanoparticule est enveloppée par un fragment de membrane et entre dans un compartiment intracellulaire appelé endosome. Alors qu'ils étaient stables à l'extérieur de la cellule, les assemblages sont ébranlés par l'acidité qui règne dans ce nouvel environnement. Par ailleurs, cette baisse de pH permet au polymère πPEI de faire éclater l'endosome, ce qui libère son contenu en molécules actives. 

Grâce à cet assemblage, les chercheurs ont pu concentrer suffisamment de protéines actives à l'intérieur des cellules pour obtenir un effet biologique notable. Ainsi, en transférant une protéine appelée caspase 3 dans des lignées de cellules cancéreuses, ils ont réussi à induire 80 % de mort cellulaire1. 

Les résultats in vitro sont encourageants, d'autant que ce "virus chimique" ne devient toxique qu'à une dose dix fois supérieure à celle utilisée dans cette étude. Par ailleurs, des résultats préliminaires chez la souris ne font pas état de surmortalité. L'élimination par l'organisme des deux polymères reste cependant une question ouverte. La prochaine étape consistera à tester ce système de manière approfondie in vivo, chez l'animal. A court terme, ce système servira d'outil de recherche pour vectoriser2 dans les cellules des protéines recombinantes et/ou chimiquement modifiées. A long terme, ce travail pourrait ouvrir le champ d'application des protéines pharmaceutiques à des cibles intracellulaires et contribuer à la mise au point de médicaments novateurs. 

Ces travaux ont été rendus possibles par la collaboration de biophysiciens et de biologistes. Les compétences en cryomicroscopie électronique de l'Institut de génétique et de biologie moléculaire et cellulaire (CNRS/Université de Strasbourg/Inserm) et l'expertise en microscopie à force atomique du Laboratoire de biophotonique et pharmacologie (CNRS/Université de Strasbourg) ont permis de caractériser les assemblages moléculaires de manière très précise. Le laboratoire Biotechnologie et signalisation cellulaire (CNRS/Université de Strasbourg) a quant à lui fourni les protéines recombinantes encapsulées dans le virus artificiel.

 

 DOCUMENT         CNRS         LIEN

LE NIL

il y a 10 mois

Le Nil


Principal fleuve d'Afrique, drainant un bassin d'environ 3 millions de km2 et long de 6 700 km (5 600 km depuis le lac Victoria), et qui rejoint la mer Méditerranée par un vaste delta.
Le fleuve a été appelé Hâpî par les Pharaons, Chrysonoas par les Grecs, Bahr (« mer ») par les Arabes.
GÉOGRAPHIE
1. Le cours du Nil

Le fleuve trouve son origine dans un cours d'eau du Burundi, le Kasumo, qui devient, dans son cours inférieur, la Kagera, tributaire du lac Victoria. Cette mer intérieure (près de 70 000 km2), perchée à 1 133 m, s'écoule vers le Nord par le Nil Victoria, qui traverse le lac Kioga entre deux chutes. Il pénètre ensuite dans le lac Albert, alimenté par la Semliki, et en sort sous le nom de Bahr el-Gebel, « rivière de la Montagne », puis entre dans la plaine du Soudan du Sud. Les inondations, la multiplication des bras, la végétation aquatique et une évaporation intense qui prélève près de la moitié de la masse liquide caractérisent cette immense cuvette marécageuse des « sadd », qui reçoit en outre le Bahr el-Ghazal. Sortant du lac No, le fleuve, qui prend alors le nom de Nil Blanc (Bahr el-Abiad), reçoit le Sobat (rive droite), reprend la direction du nord et entre au Soudan.

À Khartoum, il reçoit le Nil Bleu (Bahr el-Azrak) et, dès lors, on lui donne parfois le nom de Grand Nil. Il reçoit encore l'Atbara, toujours sur la rive droite, et travers ensuite 2 700 km de désert, en Nubie, puis continue son cours en Égypte, passe au Caire, à la tête du delta, avant de rejoindre la mer Méditerranée.
2. Le profil du Nil

Le profil longitudinal du Nil n'est pas régularisé dans le cours supérieur, mais, à l'entrée des marais des « sadd », la pente devient très faible, jusqu'au-delà de Khartoum (3,5 cm par km). En aval, une série d'accidents séparent des biefs à pente douce : ce sont les fameuses « cataractes » numérotées de 1 à 6 en remontant le cours du fleuve à partir d'Assouan. En fait, ce ne sont que des rapides qui, souvent, n'interdisent la navigation qu'en basses eaux. Peu après la deuxième cataracte, la vallée inférieure constitue la partie habitable de l'Égypte. Le haut-barrage d'Assouan régularise son cours inférieur et créé un vaste lac artificiel, long de 500 km (en partie au Soudan). Passé Le Caire, le Nil entre dans son delta, construction postglaciaire qui a continué de progresser pendant la période historique et dont l'extension est à présent bloquée par la raideur de la pente sous-marine et le fort courant littoral. Le fleuve aboutit à la mer par les branches de Rosette et de Damiette, aux modules respectifs de 1 076 et 508 m3s.
Le bassin du Nil s'étend de l'équateur à la Méditerranée et inclut des parties de dix États : Burundi, Rwanda, Tanzanie, Ouganda, Kenya, République démocratique du Congo, Soudan du Sud, Éthiopie, Soudan, Égypte.
3. Le régime du Nil

En Égypte, le Nil a un régime simple et plutôt régulier : le débit, minimal au début du mois de juin, augmente jusqu'à la fin de septembre pour décroître ensuite. Ce régime est pourtant le résultat d'une combinaison complexe d'affluents répartis sur 35 degrés de latitude. Le Nil Blanc, malgré un appauvrissement dans les « sadd », a encore beaucoup d'eau en saison sèche et son régime est pondéré. Le Nil Bleu et l'Atbara sont, au contraire, excessifs : au début de septembre, ils apportent au Nil plus de 90 % de son débit moyen de 8 000 m3s mais, en avril, le Nil Bleu est fort réduit (131 m3s) et, pendant cinq mois, de janvier à mai, l'Atbara est à sec. La fameuse crue du fleuve est due à la montée des affluents éthiopiens, dont les eaux violentes érodent les massifs volcaniques auxquels elles arrachent des terres fertiles. Il en résultait jadis l'inondation de la vallée égyptienne, à laquelle échappaient les villages construits sur des buttes. Le sol emmagasinait une réserve naturelle d'eau, tandis que la surface recevait quelques millimètres de limon régénérateur. Dès novembre, le fleuve étant rentré dans son lit mineur, on procédait aux semailles dans la boue. Cependant, si les hautes eaux ont toujours lieu dans la même saison, elles sont parfois faibles et tardives, parfois hautes et dévastatrices. Ainsi le débit moyen annuel du Nil à Assouan a pu varier de 4 341 m3s en 1879 à 1441 m3s en 1913, alors que la moyenne, pour 80 ans, est de 2 922 m3s. Les nilomètres permettaient de noter, dès l'Antiquité, la hauteur de la crue et même de faire des pronostics.
4. Les travaux sur le Nil
Depuis le xixe s., le régime du Nil a été sensiblement transformé par de grands travaux : édification de barrages pour relever le plan d'eau à la tête des canaux (notamment barrages du Delta, d'Assiout, de Nag Hamadi, de Esnèh près de Louqsor) et création de barrages-réservoirs pour améliorer le débit entre février et juillet (barrages d'Assouan, du Djebel Aulia, de Sennar, d'Owen Falls). Enfin, à proximité d'Assouan, le Haut-Barrage, construit de 1960 à 1964 et dont la mise en eau a été achevée en 1972, est l'un des plus imposants du monde. L'intérêt, capital pour l'Égypte, d'un développement de l'irrigation et l'avantage d'une production hydroélectrique dans un pays mal pourvu de sources d'énergie sont à l'origine de cet ouvrage. Le Nil est enfin un fleuve navigable par biefs, entre les rapides ou les chutes, et son cours égyptien est utilisé par une batellerie très active.
4.1. Les premiers barrages
La vallée fut équipée de barrages d'élévation à Assiout (1902), à Esnèh (1909) et à Nag Hamadi (1930). Ces travaux visaient surtout à étendre la culture du coton, pour approvisionner les filatures anglaises. Mais l'extension de l'irrigation pérenne fut handicapée par le manque d'eau pendant l'étiage, alors que la plus grande partie de l'eau de la crue se perdait dans la Méditerranée. Les premiers barrages-réservoirs en Égypte et au Soudan permirent d'augmenter le niveau de l'eau disponible pendant l'étiage : le premier barrage d'Assouan (1898-1902) voit sa capacité passer de 1 à 5 milliards de mètres cubes, grâce à deux surélévations ; le barrage de Sennar (1925), sur le Nil Bleu, sert à irriguer le vaste périmètre cotonnier de la Gezireh – en échange, le Soudan renonce en 1929 à toute ponction entre janvier et juillet ; le barrage du Djebel Aulia (1929-1933) retient les eaux du Nil Blanc durant la crue du Nil Bleu.
4.2. Le haut barrage d'Assouan
Les besoins augmentant plus vite que les disponibilités, la solution proposée est celle d'un nouveau barrage à Assouan, qui retiendrait toute la crue dans un réservoir d'une capacité maximale de 156 milliards de mètres cubes, à cheval sur l'Égypte et le Soudan. L'eau du Nil est partagée, en 1959, sur la base de 55,5 milliards de mètres cubes pour l'Égypte et 18,5 milliards pour le Soudan (les pertes du lac-réservoir représentent 10 milliards de mètres cubes). Le barrage, construit avec l'aide soviétique, est inauguré en 1970, quelques semaines après la mort du président Nasser, qui en avait été l'initiateur. Cent mille villageois nubiens durent quitter leur foyer submergé.
Le haut barrage d'Assouan a permis la régulation pluriannuelle du débit, la production d'électricité, la bonification d'étendues désertiques sur les marges de la vallée et du Delta (400 000 ha), le passage à l'irrigation pérenne des derniers bassins de Haute-Égypte (300 000 ha), l'extension des cultures grosses consommatrices d'eau, comme la canne à sucre et le riz. Mais le haut barrage a aussi pour effet de retenir le limon de la crue, réduisant à néant la pêche côtière, érodant les berges et le littoral, et privant le sol de sa fertilité. Les paysans arrosent trop, provoquant l'élévation de la nappe phréatique et la salinisation des terres. La mise en valeur du désert n'a pas compensé la perte des meilleurs sols devant la croissance urbaine. Enfin, la croissance démographique et l'augmentation constante des besoins ont contraint l'Égypte à consommer plus que sa part, tandis que le Soudan entreprenait de se doter de ses propres aménagements.
4.3. Les nouveaux projets
Sur le Nil Blanc, le percement du canal de Jongleï, long de 380 km et destiné à drainer une partie des sadd, commence en 1978. Cofinancé par l'Égypte et le Soudan, il devait fournir à chacun 3,5 milliards de mètres cubes d'eau supplémentaires par an. Mais la reprise de la guerre civile au Soudan a entraîné l'arrêt des travaux en 1983. C'est cependant le Nil Bleu qui détient le plus grand potentiel inexploité : il dispose de sites hydroélectriques prometteurs et donne à l'Éthiopie, qui en a la maîtrise, les clés du destin du Soudan et surtout de celui de l'Égypte. Devant la pression démographique croissante sur les vieilles terres érodées du plateau, le gouvernement éthiopien a mis en chantier de vastes projets agricoles dans les vallées du Nil Bleu, de la Sobat et de l'Atbara.
En 2013, l'Éthiopie a commencé les travaux de détournement du cours du Nil Bleu en vue de la construction du barrage de la Renaissance, destiné à la production d'hydroélectricité.
5. Les accords de partage des eaux du Nil
Plusieurs accords ont été signés entre les pays riverains pour le partage des eaux du Nil.
5.1. Les accords de 1929 et de 1959
Les accords de 1929 et de 1959 étaient favorables à l'Égypte. Seuls deux pays peuvent disposer du débit du Nil : l'Égypte et le Soudan (qui englobe alors le Soudan du Sud). Les deux tiers reviennent à l'Égypte, 22 % au Soudan, tandis que l'Éthiopie ne reçoit rien. L'Égypte dispose d'un droit de veto sur tout projet sur le fleuve.
5.2. L'accord d'Entebbe, en 2010
L'accord d'Entebbe a été signé en 2010 par six pays de l'amont du fleuve : l'Éthiopie, le Kenya, la Tanzanie, le Rwanda, le Burundi et l'Ouganda. Il conteste les accords de 1929 et de 1959. L'Égypte a rejeté cet accord.
HISTOIRE
1. Le Nil dans l'Antiquité égyptienne : berceau d’une civilisation
L'agriculture apparaît dans la basse vallée du Nil il y a environ 7 000 ans. Il s'agit tout d'abord de cultures pratiquées dans le limon laissé par la décrue du fleuve ; puis, vers 3400 avant notre ère, on note une organisation supravillageoise qui permet de retenir l'eau dans des bassins.
L'unification du Delta et de la vallée égyptienne est réalisée vers 3300 avant J.-C., et assure la prospérité du pays, grâce au contrôle centralisé de la crue et de l'activité agricole, durant l'Ancien, le Moyen et le Nouvel Empire. En revanche, les périodes de division (première période intermédiaire, fin du Nouvel Empire) ou d'occupation étrangère entraînent désordre et famine.
1.1. La civilisation koushite
Au-delà de la 1ere cataracte sont entreprises de fructueuses expéditions, qui aboutissent parfois à une présence égyptienne permanente. Mais dès le IVe millénaire est apparue au Soudan actuel la civilisation koushite, dont la capitale est Kerma, en Nubie.
Colonisée au Moyen Empire, la Nubie recouvre son indépendance lors de la deuxième période intermédiaire et de l'occupation de l'Égypte par les Hyksos.
1.2. Napata, Méroé, Aksoum
Sous le Nouvel Empire, Thoutmosis III la reconquiert; mais elle s'émancipe à nouveau vers l'an 1000. Ce sera pourtant par elle que l'unité sera rétablie sous la XXVe dynastie, dite éthiopienne, des pharaons noirs de Napata ; vers 700 avant J.-C., ils étendent leur pouvoir jusqu'à la Méditerranée pendant un siècle, puis le royaume de Napata, replié au sud de la 1ere cataracte, transfère sa capitale à Méroé, entre l'Atbara et le Nil Bleu. La civilisation méroïtique, où le respect des traditions égyptiennes s'allie au fonds africain, est maintenue jusqu'au iiie siècle de notre ère, avant de disparaître sous les coups du puissant royaume d'Aksoum, qui contrôle le haut bassin du Nil Bleu.
1.3. Le Nil, bon génie des Égyptiens
Le Nil était vénéré par les Égyptiens comme un bon génie, envoyé par les dieux ; son nom était Hâpî. On localisa d'abord sa retraite dans une grotte située au milieu de la première cataracte ; il s'agit là, en fait, d'une fiction mythologique, les Égyptiens sachant très bien que la Basse-Égypte, plus avancée en civilisation, bénéficiait d'une irrigation régularisée pendant la période de l'inondation annuelle, alors que la Haute-Égypte laissait passer sans l'endiguer un flot dévastateur.
Après que la Haute-Égypte eut été dotée à son tour d'un système d'irrigation, on lui appliqua le même cadre mythologique, une seconde retraite étant assignée au bon génie Nil. Lorsque l'Égypte fut unifiée, on représenta sur les monuments et on vénéra deux Nils, le premier étant censé prendre sa source en amont d'Éléphantine, le second, à Hélouân, en amont d'Héliopolis.
2. L'ère chrétienne et la conquête arabe
Des royaumes chrétiens, berceau d'une civilisation florissante, se fondent en Abyssinie à partir du ive siècle, et en Nubie à partir du vie siècle.
La conquête arabe de l'Égypte, en 641 rend plus difficiles les contacts de ces royaumes avec les centres de la chrétienté. Le royaume d'Aloa, au confluent des deux Nils, subsiste pourtant jusqu'au début du xvie siècle, et le christianisme éthiopien, demeuré monophysite, comme celui d'Égypte, se maintient jusqu'à nos jours. L'islam ne provoque pas l'unification de la vallée du Nil, même si en 1504 le sultanat noir des Fundji s'établit sur les rives du Nil soudanais, avec sa capitale à Sennar.
Dans la région des Grands Lacs, c'est au xiiie-xive siècle que les pasteurs tutsis s'installent au Rwanda, et en soumettent les cultivateurs hutus et les chasseurs pygmées, tandis que l'Ouganda est le siège de quatre royaumes : Bouganda, Toro, Ankolé et Bounyoro, le plus puissant. Mais au XVIe siècle, le Bouganda, en s'alliant aux commerçants arabes de la côte, prend le dessus et continue son expansion jusqu'à l'occupation britannique.
3. La découverte du Nil
Le réseau supérieur du fleuve est demeuré longtemps inconnu. Ce sont les récits des marchands qui permirent l'établissement des premières cartes, où l'on note des « monts de la Lune », vers les sources. Néron envoya deux centurions à la recherche de celles-ci ; ils furent arrêtés par les sadd (ilôts de végétation formant barrage).
Du xiiie au xviiie siècle, l'Éthiopie est parcourue, et le Nil Bleu repéré ; on le considérait comme le fleuve principal.
Au xixe siècle, les expéditions ordonnées par Méhémet-Ali atteignent, en remontant le Nil Blanc, Gondokoro, en amont des sadd. Partant de l'océan Indien, l’explorateur John Hanning Speke, avec sir Richard Francis Burton puis avec James Augustus Grant, atteint le lac Victoria ; Speke le contourne pour toucher à Gondokoro (1863). Un long travail de reconnaissance, de cartographie et d'hydrologie commença alors.
À la suite de l'ouverture du canal de Suez, la Grande-Bretagne impose son protectorat sur l'Égypte (1882), tandis qu'au Soudan le Mahdi s'empare de Khartoum (1885) et fonde un empire qui dure treize ans.
L'Éthiopie est également menacée, mais les troupes italiennes sont écrasées à Adoua en 1890. Les visées françaises et britanniques se heurtent à Fachoda (1898), sur le Nil Blanc : la Grande-Bretagne a décidé de reconquérir le Soudan pour faire la jonction avec ses possessions d'Afrique orientale, alors que la France espère atteindre la mer Rouge (→ affaire de Fachoda).

 

 DOCUMENT   larousse.fr    LIEN

 

Ramsès II

il y a 10 mois

Ramsès II

Troisième pharaon de la XIXe dynastie (1301-1236 avant J.-C.).
Le règne de Ramsès II se situe au début de la seconde moitié du Nouvel Empire (1580-1085 avant J.-C.), la dernière période de gloire et de prospérité de l'Égypte ancienne. À cette époque de l'histoire de l'humanité, l'Égypte est encore une grande puissance qui rayonne sur tout le Proche-Orient et qui, bien au-delà, mène une politique ouvertement expansionniste en Afrique et en Asie.
Un monarque guerrier

Fils de Seti Ier, Ramsès II est le troisième souverain de la XIXe dynastie, qui a pris le pouvoir vers 1314 avant J.-C., soixante ans après le règne d’Akhenaton. Les années troublées qui suivent directement celui-ci (règnes de Smenkhkarê, de Toutankhamon, de Aï) sont mal connues ; mais on sait que, vers 1339 avant J.-C., le général Horemheb, qui a su conserver l'intégrité des frontières de l'Empire menacé, est désigné comme roi par un oracle d'Amon ; il restaure l'Empire et l'État. Sans héritiers, il adopte pour successeur un général originaire, semble-t-il, de Tanis, Ramsès Ier, qui, très vite, associe son fils Seti Ier au trône. Avec cette dynastie de monarques guerriers, provenant des marches de l'Asie, la politique égyptienne devient résolument impérialiste, l'idéologie se fait violente : Amon rétablira par la terreur la domination du roi, qui sera « celui qui s'élance sur ses ennemis comme un lion terrible, qui entasse leurs cadavres auprès de leurs vallées, qui les renverse dans leur sang… ».
La lutte contre les Hittites
Quand Ramsès II monte sur le trône, la situation extérieure est de nouveau menaçante. Il y a un danger principal : le royaume du Hatti (peuplé par les Hittites, et constitué dans la région des plateaux de l'Anatolie actuelle lors des invasions indo-européennes du IIe millénaire avant J.-C.) et son actif souverain, Mouwattali. Une intense activité diplomatique a permis à celui-ci de nouer un réseau d'alliances en Asie Mineure, constituant ainsi un bloc de puissance politique rival du « groupe » égyptien ; de plus, à l'hégémonie économique de l'Égypte en Méditerranée, le Hatti oppose maintenant une politique concurrente en Égée, à laquelle la puissance mycénienne (succédant à celle de la Crète) donne une importance nouvelle ; les commerçants des îles égéennes se tournent naturellement vers le Hatti, installé sur les côtes occidentale et méridionale de l'Asie Mineure. La clef de cette double hégémonie est la Syrie et les ports phéniciens ; Ramsès et Mouwattali se préparent ouvertement à la lutte.
Ramsès, militaire avisé, installe ses bases et renforce ses armées. Il transporte d'abord sa résidence à Pi-Ramsès, à la frontière orientale de l'Égypte. Cette « remontée » de la capitale vers le nord est un fait important, tant du point de vue économique (en effet, les villes du Delta oriental, Tanis, Bubastis, Athribis, sont alors de grands centres commerciaux, et la nouvelle résidence du souverain se trouve ainsi au point de jonction des routes qui unissent le Delta aux ports syro-phéniciens et à la mer Rouge) que du point de vue politique (à la capitale religieuse sise à Thèbes, où le clergé d'Amon est puissant, s'oppose désormais une autre capitale, centre politique, éloignée de l'emprise cléricale) ; de plus, Pi-Ramsès (Tanis ? Qantir ?), aux frontières mêmes de l'Asie, prend figure de capitale d'Empire, mi-égyptienne, mi-asiatique (ainsi, le quartier oriental de la ville est consacré à la grande déesse-mère de l'Asie antérieure, Ishtar, et le quartier occidental à celle du Delta, Ouadjet). Cette décision répond avec évidence à un souci de politique impérialiste raisonnée, et a l'avantage d'offrir une base commode pour les opérations militaires.
Dans le même esprit, Ramsès II développe son armée. Aux trois divisions déjà existantes (placées sous le patronage des dieux Amon, Rê et Ptah), il en adjoint une quatrième, que protège Seth, dieu oriental (proche de Baal ou de Soutekh, guerriers asiatiques, et souvent assimilé à ceux-ci). Des troupes noires sont levées en Nubie (corps d'archers), et des mercenaires sont recrutés parmi les prisonniers de guerre (Shardanes, notamment). Dernière mesure de sagesse : des campagnes en Nubie et en Libye assurent la paix aux confins du sud et de l'ouest. Une guerre s'engage, qui va durer, suivant différentes phases, une vingtaine d'années.
Ramsès remonte jusqu'à l'Oronte et livre, devant Qadesh, une grande bataille connue grâce à des sources précises : notamment le Poème de Pentaour (reproduit sur plusieurs papyrus, copié en hiéroglyphes sur les murs des temples de Louqsor, de Karnak, d'Abydos) et le rapport officiel de la bataille (sculpté en bas reliefs, accompagnés de légendes, sur les murs de plusieurs sanctuaires : à Thèbes, Abydos, Abou-Simbel, entre autres). C'est une aventure héroïque : Ramsès II, déjà parvenu aux rives de l'Oronte, où l'attend Mouwattali près de Kadesh, ayant été trompé par de faux rapports d'espions (agents doubles) annonçant la retraite de l'armée hittite, précipite sa marche et franchit en partie le gué sur le fleuve, pour contourner la ville, et cela (rassuré qu'il est) sans prendre soin de couvrir ses flancs ; la division d'Amon a franchi la rivière, celle de Rê s'apprête à le faire, cependant que les divisions de Ptah et de Seth, à l'arrière, s'acheminent encore sur la route. Mais la trahison apparaît lorsque deux prisonniers hittites, interrogés… et bâtonnés, avouent la manœuvre perfide. Ramsès veut accélérer le regroupement de ses soldats, mais Mouwattali, qui a déjà massé ses 2 500 chars au bord du fleuve, fonce, coupe en deux l'armée égyptienne et pénètre, semble-t-il, jusque dans le camp de Ramsès. Celui-ci, guidé par Amon, réussit (d'après les textes égyptiens) l'héroïque exploit de rejeter, seul, l'ennemi en désordre : « Je t'invoque, ô mon père Amon ! Me voici au milieu de peuples si nombreux qu'on ne sait qui sont les nations conjurées contre moi, et je suis seul, aucun autre avec moi. Mes nombreux soldats m'ont laissé, aucun de mes charriers n'a regardé vers moi quand je l'appelais… Mais Amon vaut mieux pour moi qu'un million de soldats, que cent mille charriers, qu'une myriade de frères ou de jeunes fils… Amon surgit à mon injonction, il me tend la main, il pousse un cri de joie : "Face à face avec toi, Ramsès Meriamoun, je suis avec toi ! C'est moi ton père ! Ma main est avec toi… Moi, le fort, qui aime la vaillance, j'ai reconnu un cœur courageux…" Alors je suis comme Montou, de la droite je tranche, de la gauche je saisis… J'ai rencontré 2 500 chars, et, dès que je suis au milieu, ils se renversent devant mes cavales… ». Bataille confuse, en fait, à l'issue incertaine, mais qui arrêta la progression hittite vers le sud.
La lutte contre l'Assyrie
Deux ans après, Ramsès fait campagne en « Palestine », où Mouwattali a fomenté une révolte.
Une crise dynastique éclate au Hatti : Hattousili, frère de Mouwattali, prend finalement le pouvoir. Après une nouvelle démonstration militaire du souverain d'Égypte, qui remonte jusqu'à Tounip, Hattousili III semble manifester une volonté de paix. Un nouveau danger, commun, rapproche d'ailleurs, à ce moment, les deux souverains : Salmanasar Ier (Shoulmân-asharêdou), roi d'Assyrie, pénètre dans le Mitanni et porte sa frontière jusque sur l'Euphrate. Des ambassadeurs égyptiens et hittites établissent, vers 1278 avant J.-C., les bases d'un traité qui assure aux deux royaumes le partage de l'hégémonie, politique et économique, sur le monde asiatique. Le texte de ce traité est gravé en langue akkadienne sur des tablettes d'argile, déposé aux pieds des dieux Rê et Teshoub (ses garants), dans leurs sanctuaires respectifs à Pi-Ramsès et à Hattousa (l'actuel site de Boğazköy), et des copies sont sculptées, en hiéroglyphes, sur les murs du temple d'Amon à Karnak et sur ceux du Ramesseum. Il témoigne d'une alliance étroite entre deux rois égaux, alliance consolidée par des rapports personnels : visite du souverain hittite en Égypte, mariage de Ramsès avec une princesse hittite ( ?). Pendant cinquante ans, le Proche-Orient connaît la paix, que rend féconde un intense courant d'échanges culturels et économiques.
Mise en valeur du royaume et grandes réalisations architecturales

Ramsès emploie également ces années calmes à consolider son empire africain. La mise en valeur des mines d'or, la politique d'égyptianisation se développent encore. L'occupation, tout en se maintenant officiellement jusqu'à Napata (quatrième cataracte), semble n'avoir été effective que jusqu'à la deuxième cataracte. Cette région se couvre alors de magnifiques monuments : les plus célèbres sont les temples que Ramsès II fit tailler dans la montagne même, à Abou-Simbel (peu avant la deuxième cataracte) ; l'un est consacré à la triade Amon-Horakhty-Ptah, l'autre à la déesse Hathor ; c'est à même le roc également que sont sculptées les quatre statues assises colossales du souverain, lesquelles devancent la façade du grand temple, ainsi que les six hautes statues de Ramsès II et de la grande épouse royale Néfertari, qui encadrent l'entrée du temple d'Hathor.
Une extraordinaire activité architecturale marque d'ailleurs ce règne : achèvement de la grande colonnade de Karnak et du temple d'Amon-Mout-Khonsou à Louqsor, construction du temple funéraire, dit Ramesseum, à Thèbes, de l'Osireion à Abydos, notamment. Travaillant à ces constructions, des prisonniers de guerre et des populations ramenées en butin constituent un immense prolétariat (Phéniciens pour les constructions navales, Syriens dans les carrières, Hébreux briquetiers dans l'est du Delta). Ainsi, du cœur de l'Afrique aux rives de l'Oronte, d'innombrables monuments et documents attestent le prestige du souverain « élu de Rê, aimé d'Amon », souverain magnifique, nanti de cinq ou six grandes épouses et de nombreuses concubines, père de plus de 100 enfants royaux. Le luxe de la cour est sans précédent, qui fait dire que « à Thèbes, toutes les maisons regorgent d'or » (l'Odyssée, IV, 125).
Une fin de règne difficile

Mais la fin du règne est assombrie par des événements menaçants pour l'avenir. Au-delà des frontières, une double rupture de l'équilibre international entraîne la ruine de l'Empire : sur terre, la dynastie assyrienne s'installe définitivement sur l'Euphrate (la grande voie commerciale reliant l'Asie Mineure à Babylone), défait les Hittites, occupe Babylone même et contrôle désormais toute la Mésopotamie. Sur mer, l'expansion achéenne prend, dans la mer Égée et la Méditerranée orientale, des proportions considérables. Le Hatti fait front, Ramsès II, vieilli, ne fait rien et temporise. Son pouvoir est d'ailleurs sapé de l'intérieur par la formation inévitable d'une nouvelle classe militaire (conséquence de la création d'une armée de métier, dotée de bénéfices fonciers inaliénables), par le développement de la classe cléricale (l'hérédité sacerdotale s'implante, les terres des temples prennent allure de domaines seigneuriaux) et par des troubles démographiques (dus à l'accroissement de la main-d'œuvre étrangère).
À la mort de Ramsès II, en 1236 avant J.-C., Mineptah, son quatrième fils et successeur, doit affronter une situation dangereuse.
Une découverte archéologique, en 1995, a permis de mettre au jour les sépultures des femmes et enfants de Ramsès II ; il s'agit du plus vaste ensemble funéraire de la Vallée des rois.

 

   DOCUMENT   larousse.fr    LIEN

 

Ramsès II

il y a 10 mois

Ramsès II

Troisième pharaon de la XIXe dynastie (1301-1236 avant J.-C.).
Le règne de Ramsès II se situe au début de la seconde moitié du Nouvel Empire (1580-1085 avant J.-C.), la dernière période de gloire et de prospérité de l'Égypte ancienne. À cette époque de l'histoire de l'humanité, l'Égypte est encore une grande puissance qui rayonne sur tout le Proche-Orient et qui, bien au-delà, mène une politique ouvertement expansionniste en Afrique et en Asie.
Un monarque guerrier

Fils de Seti Ier, Ramsès II est le troisième souverain de la XIXe dynastie, qui a pris le pouvoir vers 1314 avant J.-C., soixante ans après le règne d’Akhenaton. Les années troublées qui suivent directement celui-ci (règnes de Smenkhkarê, de Toutankhamon, de Aï) sont mal connues ; mais on sait que, vers 1339 avant J.-C., le général Horemheb, qui a su conserver l'intégrité des frontières de l'Empire menacé, est désigné comme roi par un oracle d'Amon ; il restaure l'Empire et l'État. Sans héritiers, il adopte pour successeur un général originaire, semble-t-il, de Tanis, Ramsès Ier, qui, très vite, associe son fils Seti Ier au trône. Avec cette dynastie de monarques guerriers, provenant des marches de l'Asie, la politique égyptienne devient résolument impérialiste, l'idéologie se fait violente : Amon rétablira par la terreur la domination du roi, qui sera « celui qui s'élance sur ses ennemis comme un lion terrible, qui entasse leurs cadavres auprès de leurs vallées, qui les renverse dans leur sang… ».
La lutte contre les Hittites
Quand Ramsès II monte sur le trône, la situation extérieure est de nouveau menaçante. Il y a un danger principal : le royaume du Hatti (peuplé par les Hittites, et constitué dans la région des plateaux de l'Anatolie actuelle lors des invasions indo-européennes du IIe millénaire avant J.-C.) et son actif souverain, Mouwattali. Une intense activité diplomatique a permis à celui-ci de nouer un réseau d'alliances en Asie Mineure, constituant ainsi un bloc de puissance politique rival du « groupe » égyptien ; de plus, à l'hégémonie économique de l'Égypte en Méditerranée, le Hatti oppose maintenant une politique concurrente en Égée, à laquelle la puissance mycénienne (succédant à celle de la Crète) donne une importance nouvelle ; les commerçants des îles égéennes se tournent naturellement vers le Hatti, installé sur les côtes occidentale et méridionale de l'Asie Mineure. La clef de cette double hégémonie est la Syrie et les ports phéniciens ; Ramsès et Mouwattali se préparent ouvertement à la lutte.
Ramsès, militaire avisé, installe ses bases et renforce ses armées. Il transporte d'abord sa résidence à Pi-Ramsès, à la frontière orientale de l'Égypte. Cette « remontée » de la capitale vers le nord est un fait important, tant du point de vue économique (en effet, les villes du Delta oriental, Tanis, Bubastis, Athribis, sont alors de grands centres commerciaux, et la nouvelle résidence du souverain se trouve ainsi au point de jonction des routes qui unissent le Delta aux ports syro-phéniciens et à la mer Rouge) que du point de vue politique (à la capitale religieuse sise à Thèbes, où le clergé d'Amon est puissant, s'oppose désormais une autre capitale, centre politique, éloignée de l'emprise cléricale) ; de plus, Pi-Ramsès (Tanis ? Qantir ?), aux frontières mêmes de l'Asie, prend figure de capitale d'Empire, mi-égyptienne, mi-asiatique (ainsi, le quartier oriental de la ville est consacré à la grande déesse-mère de l'Asie antérieure, Ishtar, et le quartier occidental à celle du Delta, Ouadjet). Cette décision répond avec évidence à un souci de politique impérialiste raisonnée, et a l'avantage d'offrir une base commode pour les opérations militaires.
Dans le même esprit, Ramsès II développe son armée. Aux trois divisions déjà existantes (placées sous le patronage des dieux Amon, Rê et Ptah), il en adjoint une quatrième, que protège Seth, dieu oriental (proche de Baal ou de Soutekh, guerriers asiatiques, et souvent assimilé à ceux-ci). Des troupes noires sont levées en Nubie (corps d'archers), et des mercenaires sont recrutés parmi les prisonniers de guerre (Shardanes, notamment). Dernière mesure de sagesse : des campagnes en Nubie et en Libye assurent la paix aux confins du sud et de l'ouest. Une guerre s'engage, qui va durer, suivant différentes phases, une vingtaine d'années.
Ramsès remonte jusqu'à l'Oronte et livre, devant Qadesh, une grande bataille connue grâce à des sources précises : notamment le Poème de Pentaour (reproduit sur plusieurs papyrus, copié en hiéroglyphes sur les murs des temples de Louqsor, de Karnak, d'Abydos) et le rapport officiel de la bataille (sculpté en bas reliefs, accompagnés de légendes, sur les murs de plusieurs sanctuaires : à Thèbes, Abydos, Abou-Simbel, entre autres). C'est une aventure héroïque : Ramsès II, déjà parvenu aux rives de l'Oronte, où l'attend Mouwattali près de Kadesh, ayant été trompé par de faux rapports d'espions (agents doubles) annonçant la retraite de l'armée hittite, précipite sa marche et franchit en partie le gué sur le fleuve, pour contourner la ville, et cela (rassuré qu'il est) sans prendre soin de couvrir ses flancs ; la division d'Amon a franchi la rivière, celle de Rê s'apprête à le faire, cependant que les divisions de Ptah et de Seth, à l'arrière, s'acheminent encore sur la route. Mais la trahison apparaît lorsque deux prisonniers hittites, interrogés… et bâtonnés, avouent la manœuvre perfide. Ramsès veut accélérer le regroupement de ses soldats, mais Mouwattali, qui a déjà massé ses 2 500 chars au bord du fleuve, fonce, coupe en deux l'armée égyptienne et pénètre, semble-t-il, jusque dans le camp de Ramsès. Celui-ci, guidé par Amon, réussit (d'après les textes égyptiens) l'héroïque exploit de rejeter, seul, l'ennemi en désordre : « Je t'invoque, ô mon père Amon ! Me voici au milieu de peuples si nombreux qu'on ne sait qui sont les nations conjurées contre moi, et je suis seul, aucun autre avec moi. Mes nombreux soldats m'ont laissé, aucun de mes charriers n'a regardé vers moi quand je l'appelais… Mais Amon vaut mieux pour moi qu'un million de soldats, que cent mille charriers, qu'une myriade de frères ou de jeunes fils… Amon surgit à mon injonction, il me tend la main, il pousse un cri de joie : "Face à face avec toi, Ramsès Meriamoun, je suis avec toi ! C'est moi ton père ! Ma main est avec toi… Moi, le fort, qui aime la vaillance, j'ai reconnu un cœur courageux…" Alors je suis comme Montou, de la droite je tranche, de la gauche je saisis… J'ai rencontré 2 500 chars, et, dès que je suis au milieu, ils se renversent devant mes cavales… ». Bataille confuse, en fait, à l'issue incertaine, mais qui arrêta la progression hittite vers le sud.
La lutte contre l'Assyrie
Deux ans après, Ramsès fait campagne en « Palestine », où Mouwattali a fomenté une révolte.
Une crise dynastique éclate au Hatti : Hattousili, frère de Mouwattali, prend finalement le pouvoir. Après une nouvelle démonstration militaire du souverain d'Égypte, qui remonte jusqu'à Tounip, Hattousili III semble manifester une volonté de paix. Un nouveau danger, commun, rapproche d'ailleurs, à ce moment, les deux souverains : Salmanasar Ier (Shoulmân-asharêdou), roi d'Assyrie, pénètre dans le Mitanni et porte sa frontière jusque sur l'Euphrate. Des ambassadeurs égyptiens et hittites établissent, vers 1278 avant J.-C., les bases d'un traité qui assure aux deux royaumes le partage de l'hégémonie, politique et économique, sur le monde asiatique. Le texte de ce traité est gravé en langue akkadienne sur des tablettes d'argile, déposé aux pieds des dieux Rê et Teshoub (ses garants), dans leurs sanctuaires respectifs à Pi-Ramsès et à Hattousa (l'actuel site de Boğazköy), et des copies sont sculptées, en hiéroglyphes, sur les murs du temple d'Amon à Karnak et sur ceux du Ramesseum. Il témoigne d'une alliance étroite entre deux rois égaux, alliance consolidée par des rapports personnels : visite du souverain hittite en Égypte, mariage de Ramsès avec une princesse hittite ( ?). Pendant cinquante ans, le Proche-Orient connaît la paix, que rend féconde un intense courant d'échanges culturels et économiques.
Mise en valeur du royaume et grandes réalisations architecturales

Ramsès emploie également ces années calmes à consolider son empire africain. La mise en valeur des mines d'or, la politique d'égyptianisation se développent encore. L'occupation, tout en se maintenant officiellement jusqu'à Napata (quatrième cataracte), semble n'avoir été effective que jusqu'à la deuxième cataracte. Cette région se couvre alors de magnifiques monuments : les plus célèbres sont les temples que Ramsès II fit tailler dans la montagne même, à Abou-Simbel (peu avant la deuxième cataracte) ; l'un est consacré à la triade Amon-Horakhty-Ptah, l'autre à la déesse Hathor ; c'est à même le roc également que sont sculptées les quatre statues assises colossales du souverain, lesquelles devancent la façade du grand temple, ainsi que les six hautes statues de Ramsès II et de la grande épouse royale Néfertari, qui encadrent l'entrée du temple d'Hathor.
Une extraordinaire activité architecturale marque d'ailleurs ce règne : achèvement de la grande colonnade de Karnak et du temple d'Amon-Mout-Khonsou à Louqsor, construction du temple funéraire, dit Ramesseum, à Thèbes, de l'Osireion à Abydos, notamment. Travaillant à ces constructions, des prisonniers de guerre et des populations ramenées en butin constituent un immense prolétariat (Phéniciens pour les constructions navales, Syriens dans les carrières, Hébreux briquetiers dans l'est du Delta). Ainsi, du cœur de l'Afrique aux rives de l'Oronte, d'innombrables monuments et documents attestent le prestige du souverain « élu de Rê, aimé d'Amon », souverain magnifique, nanti de cinq ou six grandes épouses et de nombreuses concubines, père de plus de 100 enfants royaux. Le luxe de la cour est sans précédent, qui fait dire que « à Thèbes, toutes les maisons regorgent d'or » (l'Odyssée, IV, 125).
Une fin de règne difficile

Mais la fin du règne est assombrie par des événements menaçants pour l'avenir. Au-delà des frontières, une double rupture de l'équilibre international entraîne la ruine de l'Empire : sur terre, la dynastie assyrienne s'installe définitivement sur l'Euphrate (la grande voie commerciale reliant l'Asie Mineure à Babylone), défait les Hittites, occupe Babylone même et contrôle désormais toute la Mésopotamie. Sur mer, l'expansion achéenne prend, dans la mer Égée et la Méditerranée orientale, des proportions considérables. Le Hatti fait front, Ramsès II, vieilli, ne fait rien et temporise. Son pouvoir est d'ailleurs sapé de l'intérieur par la formation inévitable d'une nouvelle classe militaire (conséquence de la création d'une armée de métier, dotée de bénéfices fonciers inaliénables), par le développement de la classe cléricale (l'hérédité sacerdotale s'implante, les terres des temples prennent allure de domaines seigneuriaux) et par des troubles démographiques (dus à l'accroissement de la main-d'œuvre étrangère).
À la mort de Ramsès II, en 1236 avant J.-C., Mineptah, son quatrième fils et successeur, doit affronter une situation dangereuse.
Une découverte archéologique, en 1995, a permis de mettre au jour les sépultures des femmes et enfants de Ramsès II ; il s'agit du plus vaste ensemble funéraire de la Vallée des rois.

 

   DOCUMENT   larousse.fr    LIEN

 

Invasion des insectes l'économie mondiale affectée

il y a 10 mois

Paris, 4 octobre 2016
Invasion des insectes : l'économie mondiale affectée

69 milliards d'euros, c'est le coût minimal annuel des dégâts provoqués par les insectes envahissants dans le monde, estime une équipe internationale de chercheurs menée par Franck Courchamp, directeur de recherche CNRS au laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech) et impliquant notamment les entomologistes de l'IRD à Montpellier et un économiste CNRS. Depuis les dégâts sur les biens et services jusqu'aux coûts en santé, en passant par les pertes en agriculture, cette étude, réalisée avec le soutien de l'ANR et de la Fondation BNP Paribas, rassemble la plus importante base de données jamais élaborée des dégâts économiques imputables aux insectes envahissants dans le monde : 737 articles, livres et rapports ont été considérés. Ces travaux sont publiés dans Nature Communications le 4 octobre 2016.
Pourquoi étudier les insectes ? Depuis des milliers d'années, les insectes ont été responsables de la propagation de maladies chez l'Homme et le bétail, et de dégâts considérables, depuis l'anéantissement des cultures et réserves, en passant par la destruction des infrastructures, jusqu'à la dévastation des forêts, altérant ainsi les écosystèmes et les rendant plus fragiles. Dans le règne vivant, la seule classe des insectes (environ 2,5 millions d'espèces) est probablement le groupe le plus coûteux. De plus, ils font partie des espèces envahissantes les plus virulentes : 87 % des 2 500 invertébrés terrestres ayant colonisé de nouveaux territoires sont des insectes.

Des dégâts sous-évalués

Les scientifiques ont estimé à 69 milliards d'euros par an le coût minimal des dégâts causés par les insectes envahissants dans le monde. Parmi les d'insectes étudiés, le termite de Formose1 (Coptotermes formosanus) serait l'un des plus destructeurs : plus de 26,7 milliards d'euros par an dans le monde. Mais cette estimation provient d'une étude trop peu documentée, selon l'équipe de recherche. Des études plus renseignées (estimées reproductibles par les scientifiques) placent également « en haut du classement » la teigne des choux2 (Plutella xylostella), avec un coût de 4,1 milliards d'euros par an et le longicorne brun de l'épinette3 (Tetropium fuscum), avec un coût de 4 milliards d'euros par an rien qu'au Canada.

Par ailleurs, d'après cette étude, l'Amérique du Nord présente les plus importantes pertes financières avec 24,5 milliards d'euros par an, tandis que l'Europe n'est pour l'instant qu'à 3,2 milliards d'euros par an. Mais cette différence s'explique par un manque de sources d'évaluation et non par une réelle différence d'exposition au danger. Ainsi, selon les chercheurs, le coût annuel total estimé de 69 milliards d'euros est largement sous-évalué. De nombreuses régions du monde n'offrent pas assez de données économiques pour produire une estimation précise, qui a donc été minimisée. De plus, l'équipe de chercheurs s'est concentrée sur l'étude des dix espèces invasives les plus coûteuses, sans comptabiliser celles, très nombreuses, qui provoquent moins de dégâts. Enfin, si l'on considère les valeurs estimées pour les services écosystémiques à l'échelle globale (plusieurs centaines de milliards de dollars pour la seule pollinisation des cultures), les perturbations causées par les insectes envahissants pourraient atteindre un niveau bien au-delà de l'estimation actuelle. 

La santé et l'agriculture sont les plus touchées

Les insectes dans leur ensemble pèsent particulièrement sur l'agriculture en consommant 40 % des biens de consommation (l'équivalent de ce qui pourrait nourrir un milliard d'êtres humains).

Sur la santé, le coût global attribuable aux insectes envahissants dépasse 6,1 milliards d'euros par an (sans prendre en compte le paludisme, le virus Zika, ou encore l'impact économique provoqué sur certains facteurs comme le tourisme, la productivité, etc). D'un point de vue géographique, les régions du monde où les dépenses médicales liées aux dégâts causés par les insectes envahissants s'avèrent les plus importantes, sont respectivement l'Asie (2,55 milliards d'euros par an), l'Amérique du Nord (1,85 milliards d'euros par an) et l'ensemble de l'Amérique centrale et du Sud (1,66 milliards d'euros par an). Et, parmi les maladies les plus lourdes financièrement, on trouve au premier plan la dengue, dont les dépenses représentent 84 % des 6,1 milliards d'euros.

Une plus grande vigilance et la mise en place de procédures de réponse à une invasion biologique permettraient de faire économiser à la société des dizaines de milliards d'euros, selon les auteurs. Ces mesures de prévention pourraient diviser au moins par dix les coûts des maladies provoquées par les moustiques.

Laboratoires français impliqués :

laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech)
Laboratoire montpelliérain d'économie théorique et appliquée (CNRS/ Université de Montpellier/Inra)
laboratoire Maladies infectieuses et vecteurs : écologie, génétique, évolution et contrôle (CNRS/IRD/Université de Montpellier)
laboratoire Biologie des organismes et écosystèmes aquatiques (CNRS/MNHN/IRD/UPMC/Université Caen Normandie) 

 

 DOCUMENT         cnrs        LIEN

MACHINES ET MOTEURS MOLÉCULAIRES DE LA BIOLOGIE AU MOLÉCULES DE SYNTHÈSE

20/11/2016

MACHINES ET MOTEURS MOLÉCULAIRES : DE LA BIOLOGIE AU MOLÉCULES DE SYNTHÈSE


De nombreux processus biologiques essentiels font intervenir des moteurs moléculaires (naturels). Ces moteurs sont constitués de protéines dont la mise en mouvement, le plus souvent déclenchée par l'hydrolyse d'ATP (le "fioul" biologique), correspond à une fonction précise et importante. Parmi les exemples les plus spectaculaires, nous pouvons citer l'ATPsynthase, véritable moteur rotatif responsable de la fabrication de l'ATP. Pour le chimiste de synthèse, l'élaboration de molécules totalement artificielles, dont le comportement rappelle celui des systèmes biologiques, est un défi formidable. L'élaboration de "machines" et "moteurs" moléculaires de synthèse représente un domaine particulièrement actif, qui a vu le jour il y a environ une douzaine d'années. Ces machines sont des objets nanométriques pour lesquels il est possible de mettre en mouvement une partie du composé ou de l'assemblée moléculaire considérée, par l'intervention d'un signal envoyé de l'extérieur, alors que d'autres parties sont immobiles. Si une source d'énergie alimente le système de manière continue, et qu'un mouvement périodique en résulte, l'assemblée moléculaire en mouvement pourra être considérée comme un "moteur". D'ores et déjà, certaines équipes de chimiste ont pu fabriquer des moteurs rotatifs minuscules, des moteurs linéaires mis en mouvement par un signal électronique ou des "muscles" moléculaires de synthèse, capables de se contracter ou de s'allonger sous l'action d'un stimulus externe. Quelques exemples représentatifs seront discutés lors de l'exposé. Un certain nombre de questions ayant trait aux applications potentielles du domaine de "nanomécanique moléculaire" seront abordées : - "ordinateurs moléculaires", pour lesquels certains chercheurs fondent de grands espoirs, stockage et traitement de l'information au niveau moléculaire, - robots microscopiques, capables de remplir une grande variété de fonctions allant de la médecine à la vie de tous les jours, - transport sélectif de molécules ou d'ions à travers des membranes.

 

  DOCUMENT       canal-u.tv     LIEN 

LES MATÉRIAUX MAGNÉTIQUES DE LA BOUSSOLE À L'ÉLECTRONIQUE DE SPIN

11/11/2016

LES MATÉRIAUX MAGNÉTIQUES : DE LA BOUSSOLE À L'ÉLECTRONIQUE DE SPIN


Le mot magnétisme reste chargé de mystères, pourtant les phénomènes magnétiques sont connus depuis trois mille ans et les matériaux magnétiques sont omniprésents dans notre environnement. Le but de cet exposé est de tenter de lever ces mystères et d'expliquer la formidable importance des matériaux magnétiques dans nos sociétés développées. La conférence va débuter par un bref historique des matériaux magnétiques, depuis leur découverte en Asie mineure et en Chine jusqu'aux développements les plus récents. On verra ensuite ce qu'est le magnétisme, le champ ou induction magnétique est produit par une charge électrique en mouvement. C'est une conséquence directe de la théorie de la relativité d'Einstein. Ce champ magnétique induit une force sur toutes les particules en mouvement, c'est là l'origine de toutes les forces magnétiques. A l'échelle atomique ce sont le mouvement des électrons autour des noyaux des atomes et le mouvement propre de ces mêmes électrons (mouvement de rotation) qui sont à l'origine des deux types de moments magnétiques atomiques : le moment orbital et le spin. Les liaisons chimiques tendent à compenser ces moments magnétiques, sauf, dans le cas où survivent à ces liaisons des couches atomiques incomplètes, comme celle des métaux dits de transition ou celles des métaux dit de la famille des terres rares. On abordera, ensuite, un aperçu de la diversité des matériaux magnétiques, les matériaux ferromagnétiques paramagnétiques et diamagnétiques...On montrera les fondements physiques des propriétés magnétiques et on décrira un certain nombre de matériaux spécifiques comme les aimants permanents, les différentes bandes magnétiques ou les mémoires...On terminera cet exposé par une description des tendances actuelles dans la science et la technologie des matériaux magnétiques : le nanomagnétisme et l'électronique de spin.

 

 DOCUMENT       canal-u.tv     LIEN 

Génétique un "code origines" pour l'ADN

04/11/2016

Paris, 12 novembre 2015
Génétique : un "code origines" pour l'ADN

A l'origine de toute vie, il y a la duplication (ou réplication) de l'ADN, un mécanisme crucial pour la division des cellules. Des biologistes viennent de mener l'analyse la plus exhaustive à ce jour des milliers de sites (appelés origines) où démarre cette réplication du génome chez les organismes multicellulaires. Ils ont pu en distinguer trois grandes catégories, qui reflètent les capacités d'adaptation des cellules. La connaissance de ce "code origines" devrait permettre de rechercher d'éventuelles altérations dans le cancer, voire déboucher sur de nouveaux outils de thérapie génique. Ces résultats, issus principalement d'une collaboration entre des biologistes moléculaires de l'Institut de génétique humaine (CNRS) et des bioinformaticiens du laboratoire Technologie avancée pour le génome et la clinique (TAGC, Inserm/Aix-Marseille Université), sont publiés le 11 novembre 2015 dans la revue Genome Research.
La vie est un éternel recommencement. Pour construire un nouvel organisme à partir de l'unique cellule issue de la fécondation, ou pour renouveler nos tissus (peau, sang…), les cellules se multiplient. Cela commence par la copie (appelée réplication) du patrimoine génétique (l'ADN contenu dans chaque chromosome), avant que la cellule ne se divise en deux copies identiques. La première étape nécessite que les deux brins d'ADN de la double hélice se déroulent et s'ouvrent à la manière d'une fermeture éclair. Puis, chaque brin est recopié, en progressant à partir de cette ouverture, afin de former deux chromosomes identiques. 

Chez les organismes pluricellulaires, cette copie démarre simultanément en des milliers de sites sur chaque chromosome, appelés origines de réplication1. Ces sites dessinent une sorte de code-barres sur l'ADN, dont les caractéristiques étaient encore mal comprises. 

A partir de cellules souches de souris (dont le génome est très proche du nôtre), l'équipe de Marcel Méchali (dont principalement Christelle Cayrou) à l'Institut de génétique humaine du CNRS, et les bioinformaticiens Jacques van Helden et Benoit Ballester du laboratoire TAGC ont recherché les caractéristiques des origines de réplication. Ils ont croisé les approches pour déterminer à la fois leur séquence (le message héréditaire porté par l'ADN, codé dans un alphabet de quatre lettres) et les marques réversibles qui peuvent être ajoutées sur le chromosome, qualifiées d'épigénétiques.

Ils ont ainsi observé une structure particulière de l'ADN, partagée par 75 % des origines, consistant en un site riche en G (l'une des quatre lettres de l'alphabet génétique) où pourrait s'assembler la machinerie cellulaire utile à la réplication, avant que l'ADN s'ouvre sur un deuxième site situé un peu en aval.

Mais surtout, en voulant dresser un portrait-robot des origines de réplication, les chercheurs sont finalement parvenus à dégager trois grandes catégories, qui semblent s'adapter à différents besoins de la cellule. Par exemple, la classe 1 regroupe des origines qui portent peu de marques épigénétiques, assez isolées, situées dans des régions pauvres en gènes, qui sont recopiées assez tardivement lors de la réplication. La classe 3, elle, rassemble des origines situées dans des régions riches en gènes, et notamment en gènes impliqués dans le développement embryonnaire ou la différenciation des cellules.

Ce "code origines" pourrait expliquer la flexibilité d'utilisation des origines, sans doute en lien avec les capacités d'adaptation des cellules face aux conditions rencontrées. En effet, sur les 65 000 à 100 000 origines du génome humain, seul un tiers est mobilisé lors d'un cycle de réplication donné. Mais les autres sont loin d'être superflues. Une partie sert de réserve anti-stress : si des erreurs ou des cassures provoquées par des agents externes bloquent la réplication à un endroit donné, elle peut redémarrer à partir d'une autre origine de réserve. Une autre partie des origines excédentaires peut permettre une adaptation en fonction du destin cellulaire : selon les types cellulaires (neurone, globule blanc…), les chromosomes sont repliés différemment dans le noyau et les parties du chromosome accessibles ne sont pas les mêmes.  

Ce travail très fondamental n'est pas sans applications potentielles. En effet, des anomalies lors de la réplication peuvent provoquer des réarrangements du génome tels que ceux rencontrés dans les cellules cancéreuses. Le déchiffrement du "code origines" va donc permettre de rechercher d'éventuelles altérations de ce code qui pourraient contribuer aux cancers. Il pourrait aussi ouvrir sur des traitements bloquant les origines dans les cellules cancéreuses, afin d'arrêter leur prolifération. Enfin, les chercheurs espèrent mettre au point de nouveaux outils de thérapie génique. En concevant des origines de réplication très efficaces, ils pourraient construire des vecteurs2 de gènes capables de se comporter dans les cellules comme un mini-chromosome supplémentaire, assurant le maintien à long terme du gène-médicament, tout en évitant les inconvénients des vecteurs viraux3 utilisés à l'heure actuelle.

 

 DOCUMENT         CNRS         LIEN

Invasion des insectes l'économie mondiale affectée

29/10/2016

Paris, 4 octobre 2016
Invasion des insectes : l'économie mondiale affectée

69 milliards d'euros, c'est le coût minimal annuel des dégâts provoqués par les insectes envahissants dans le monde, estime une équipe internationale de chercheurs menée par Franck Courchamp, directeur de recherche CNRS au laboratoire Ecologie, systématique et évolution (Université Paris-Sud/CNRS/AgroParisTech) et impliquant notamment les entomologistes de l'IRD à Montpellier et un économiste CNRS. Depuis les dégâts sur les biens et services jusqu'aux coûts en santé, en passant par les pertes en agriculture, cette étude, réalisée avec le soutien de l'ANR et de la Fondation BNP Paribas, rassemble la plus importante base de données jamais élaborée des dégâts économiques imputables aux insectes envahissants dans le monde : 737 articles, livres et rapports ont été considérés. Ces travaux sont publiés dans Nature Communications le 4 octobre 2016.
Pourquoi étudier les insectes ? Depuis des milliers d'années, les insectes ont été responsables de la propagation de maladies chez l'Homme et le bétail, et de dégâts considérables, depuis l'anéantissement des cultures et réserves, en passant par la destruction des infrastructures, jusqu'à la dévastation des forêts, altérant ainsi les écosystèmes et les rendant plus fragiles. Dans le règne vivant, la seule classe des insectes (environ 2,5 millions d'espèces) est probablement le groupe le plus coûteux. De plus, ils font partie des espèces envahissantes les plus virulentes : 87 % des 2 500 invertébrés terrestres ayant colonisé de nouveaux territoires sont des insectes.

Des dégâts sous-évalués

Les scientifiques ont estimé à 69 milliards d'euros par an le coût minimal des dégâts causés par les insectes envahissants dans le monde. Parmi les d'insectes étudiés, le termite de Formose1 (Coptotermes formosanus) serait l'un des plus destructeurs : plus de 26,7 milliards d'euros par an dans le monde. Mais cette estimation provient d'une étude trop peu documentée, selon l'équipe de recherche. Des études plus renseignées (estimées reproductibles par les scientifiques) placent également « en haut du classement » la teigne des choux2 (Plutella xylostella), avec un coût de 4,1 milliards d'euros par an et le longicorne brun de l'épinette3 (Tetropium fuscum), avec un coût de 4 milliards d'euros par an rien qu'au Canada.

Par ailleurs, d'après cette étude, l'Amérique du Nord présente les plus importantes pertes financières avec 24,5 milliards d'euros par an, tandis que l'Europe n'est pour l'instant qu'à 3,2 milliards d'euros par an. Mais cette différence s'explique par un manque de sources d'évaluation et non par une réelle différence d'exposition au danger. Ainsi, selon les chercheurs, le coût annuel total estimé de 69 milliards d'euros est largement sous-évalué. De nombreuses régions du monde n'offrent pas assez de données économiques pour produire une estimation précise, qui a donc été minimisée. De plus, l'équipe de chercheurs s'est concentrée sur l'étude des dix espèces invasives les plus coûteuses, sans comptabiliser celles, très nombreuses, qui provoquent moins de dégâts. Enfin, si l'on considère les valeurs estimées pour les services écosystémiques à l'échelle globale (plusieurs centaines de milliards de dollars pour la seule pollinisation des cultures), les perturbations causées par les insectes envahissants pourraient atteindre un niveau bien au-delà de l'estimation actuelle. 

La santé et l'agriculture sont les plus touchées

Les insectes dans leur ensemble pèsent particulièrement sur l'agriculture en consommant 40 % des biens de consommation (l'équivalent de ce qui pourrait nourrir un milliard d'êtres humains).

Sur la santé, le coût global attribuable aux insectes envahissants dépasse 6,1 milliards d'euros par an (sans prendre en compte le paludisme, le virus Zika, ou encore l'impact économique provoqué sur certains facteurs comme le tourisme, la productivité, etc). D'un point de vue géographique, les régions du monde où les dépenses médicales liées aux dégâts causés par les insectes envahissants s'avèrent les plus importantes, sont respectivement l'Asie (2,55 milliards d'euros par an), l'Amérique du Nord (1,85 milliards d'euros par an) et l'ensemble de l'Amérique centrale et du Sud (1,66 milliards d'euros par an). Et, parmi les maladies les plus lourdes financièrement, on trouve au premier plan la dengue, dont les dépenses représentent 84 % des 6,1 milliards d'euros.

Une plus grande vigilance et la mise en place de procédures de réponse à une invasion biologique permettraient de faire économiser à la société des dizaines de milliards d'euros, selon les auteurs. Ces mesures de prévention pourraient diviser au moins par dix les coûts des maladies provoquées par les moustiques.

 

 DOCUMENT         cnrs        LIEN 

La naissance du politique chez l'enfant le cas de la hiérarchie

23/10/2016

Paris, 26 septembre 2016
La naissance du politique chez l'enfant : le cas de la hiérarchie

L'enfant deviendrait-il, en grandissant, un véritable petit Robin des Bois ? Selon son âge, il ne partage pas les ressources de la même façon entre un individu dominant et un individu subordonné. Ainsi, une tendance égalitariste se développe puis s'accentue entre 5 et 8 ans. Ce résultat, obtenu par une équipe de chercheurs du CNRS, des universités Claude Bernard Lyon 1, de Lausanne et de Neuchâtel (Suisse), permet de mieux comprendre la naissance de la notion d'égalité chez les êtres humains et d'appréhender leur sens de la justice. Il est publié le 26 septembre 2016 dans la revue Developmental Psychology.
Les relations hiérarchiques constituent une des caractéristiques de notre vie sociale. L'enfant détecte très tôt la différence entre un individu dominant et un individu subordonné. Mais quel comportement adopte-t-il face à une asymétrie hiérarchique ? Va-t-il favoriser le dominant et ainsi préserver le statu quo ? Ou au contraire avantager le subordonné et instituer une forme d'égalité ? Comment ces prises de position évoluent-elles pendant l'enfance ? 

Des chercheurs de l'Institut des sciences cognitives Marc Jeannerod (CNRS/Université Claude Bernard Lyon 1), des universités de Lausanne et de Neuchâtel ont examiné les prémices de ce positionnement politique chez des enfants âgés de 3 à 8 ans grâce à deux expériences : l'une de partage de ressources, l'autre de redistribution.

Dans la première expérience, les chercheurs ont demandé à 173 enfants de regarder une saynète jouée par deux marionnettes. L'une d'elles imposait systématiquement ses jeux à l'autre : les enfants reconnaissaient en elle le chef. Les chercheurs donnaient alors à l'enfant un grand chocolat et un petit chocolat, et observaient à quelle marionnette il distribuait chaque friandise. A 3 et 4 ans, une large majorité d'enfants avantage la marionnette dominante en lui attribuant le grand chocolat. A 5 ans, cette tendance disparait, pour s'inverser complètement à 8 ans. A cet âge, la quasi-totalité des enfants favorisent la marionnette subordonnée. 

Les spécialistes ont intitulé la seconde expérience « paradigme de Robin des Bois ». Les enfants (au nombre de 132) devaient regarder une scène où trois personnages, dont l'un se déclarait être le chef, jouaient dans un parc. Par la suite, le chef et l'un des subordonnés recevaient chacun trois pièces, tandis que le dernier subordonné obtenait seulement une pièce. L'examinateur demandait à l'enfant de prendre une pièce de l'une des deux personnages les plus riches pour la donner au plus pauvre. Le même effet que dans la première expérience est alors observé : les plus jeunes protègent les ressources du dominant alors que les plus âgés protègent celles du subordonné. 

Les enfants les plus âgés parvenaient souvent à expliquer leur choix. Ils donnaient le plus gros chocolat à telle marionnette « parce qu'elle ne choisit jamais le jeu », ou encore « parce qu'elle est moins chanceuse que l'autre ». D'autres, surtout les plus jeunes, n'y arrivaient pas, car produire une justification leur demandait un niveau d'abstraction trop élevé. 

Les chercheurs suggèrent plusieurs facteurs pour expliquer l'avantage donné au dominant et pour comprendre l'inversion de cette tendance avec l'âge. Tout d'abord, les enfants plus jeunes sont plus dépendants des figures d'autorité parentale. De plus, à la crèche, les rapports de dominance entre enfants sont fréquents et relativement bien acceptés. Les très jeunes enfants pourraient également vouloir s'attirer les faveurs du dominant, ou éviter d'entrer en conflit avec lui. Mais la volonté des enfants de contrecarrer les inégalités se renforce à mesure que se complexifie leur vie sociale. En effet, plus ils grandissent, plus ils ont de partenaires de jeu, plus la notion d'égalité leur est nécessaire pour évoluer dans leur groupe. 

Ces travaux montrent que les enfants commencent à être sensibles aux inégalités de statut vers cinq ans, et que cette tendance devient très prononcée vers huit ans. Toutefois, ces résultats ne signifient pas que les enfants de huit ans se montrent égalitaristes dans toutes les situations sociales. Les chercheurs s'attachent maintenant à comprendre l'effet du genre et l'influence de la culture sur cette tendance : une marionnette de genre masculin sera-t-elle perçue comme davantage dominante ? La sensibilité aux inégalités est-elle moins forte dans les pays où les hiérarchies sont culturellement plus marquées ?  

Ces travaux ont bénéficié du soutien de la Fondation de France, de la région Rhône-Alpes et du rectorat de Lyon.

 

  DOCUMENT         cnrs        LIEN  

Mieux courir grâce aux mathématiques

16/10/2016

Paris, 13 mai 2014
Mieux courir grâce aux mathématiques

Comment courir pour améliorer sa performance, son poids et sa forme ? Amandine Aftalion du Laboratoire de mathématiques de Versailles (CNRS/Université de Versailles-Saint-Quentin-en-Yvelines) et Frédéric Bonnans du Centre de mathématiques appliquées (CNRS/Inria/École polytechnique)1 ont créé un modèle mathématique d'optimisation de la course qui pourrait conduire à un programme d'entrainements personnalisés selon l'état physiologique de chacun. Il confirme en outre un fait bien connu des sportifs : varier sa vitesse permet de mieux dépenser son énergie et de courir plus longtemps. Les mathématiques offrent ainsi l'opportunité aux coureurs de passer de simples outils de mesures statistiques2 au conseil sportif personnalisé. Ces travaux, disponibles sur l'archive ouverte HAL, seront présentés le 16 mai 2014 lors du forum Futurapolis à Toulouse, dont le CNRS est partenaire, puis publiés dans la revue SIAM J.Applied Mathematics.
Ce modèle mathématique prend tout d'abord en compte l'énergie du coureur, notamment sa consommation maximale d'oxygène (VO2max)3 et son stock d'énergie anaérobie4, en les faisant intervenir dans un système d'équations différentielles reliant la vitesse, l'accélération, la force de propulsion et les forces de frottement. Ce système est couplé à des conditions initiales de départ de la course, vitesse nulle et quantité d'énergie donnée, et des contraintes : l'énergie et la force de propulsion doivent être positives (le coureur ne peut pas reculer). Les chercheurs sont capables avec ce modèle de prédire le comportement que doit avoir le sportif tout au long de sa course au moyen d'un bilan instantané déterminant à la seconde près la vitesse optimale du coureur et l'énergie dépensée depuis le départ. Leur résultat principal montre ainsi que varier sa vitesse permet de dépenser moins d'énergie et de courir plus longtemps. De plus, en comparant ces résultats avec ceux d'athlètes professionnels, les auteurs peuvent également préciser quels paramètres physiologiques les coureurs doivent développer pour s'améliorer en répondant par exemple aux questions suivantes : quels seront les résultats d'un champion s'il avait le poids et la consommation maximale d'oxygène d'un coureur amateur ? Quels sont alors les paramètres que le sportif amateur peut améliorer pour s'approcher des résultats habituels du champion ? Doit-il améliorer sa capacité respiratoire ou son énergie anaérobie ?

Les applications de ce modèle concernent deux types de publics. Dans le cas des coureurs « semi-professionnels » qui n'ont pas l'opportunité de travailler avec un entraîneur ou dans le cadre de cours d'éducation physique et sportive à l'école, les chercheurs souhaiteraient développer un logiciel capable de créer des programmes d'entrainements personnalisés qui indiqueraient les paramètres physiologiques à développer en priorité et de réaliser des stratégies précisant les vitesses optimales à atteindre à chaque moment de la course. Pour les « coureurs du dimanche », le système d'équations étant adaptable à toutes les variables intéressantes pour le sportif (et pas seulement la vitesse), ces derniers pourraient, par exemple, connaître instantanément le nombre exact (et non pas une simple moyenne comme pour les outils existant actuellement) de calories perdues lors de la course afin d'améliorer leur perte de poids. 

Les chercheurs souhaitent désormais améliorer leur modèle mathématique en intégrant au système d'équations de nouveaux paramètres comme l'altitude ou l'effet du vent et l'appliquer à d'autres sports d'endurance comme le cyclisme, la natation ou le canoé kayak.


Notes :
1Amandine Aftalion est directrice de recherche CNRS au Laboratoire de mathématiques de Versailles. Frédéric Bonnans est directeur de recherche Inria au Centre de mathématiques appliquées de l'École polytechnique.
2Les applications mobiles qui se multiplient actuellement ne recueillent des données qu'à des fins statistiques (vitesse ou distance moyenne) mais ne permettent pas d'améliorer les performances des coureurs. 
3Lors d'un effort « aérobie » les muscles, grâce au système respiratoire, fonctionnent avec suffisamment d'oxygène pour tirer la majorité de leur énergie. La consommation maximale d'oxygène correspond au volume d'oxygène maximal que le coureur peut utiliser lors d'un effort. Elle est utilisée pour mesurer la capacité respiratoire des coureurs.
4La dénomination « anaérobie » est attribuée à l'énergie utilisée par le corps lorsque celui-ci subit un déficit en oxygène. Cette énergie est due à la transformation des sucres venant de l'alimentation.
Références :
Optimization of running strategies based on anaerobic energy and variations of velocity. A. Aftalion et F. Bonnans. À paraître dans SIAM J.Applied Mathematics.

 

 DOCUMENT         cnrs        LIEN 

LES NANOSTRUCTURES SEMI-CONDUCTRICES

09/10/2016

Texte de la 586 e conférence de l'Université de tous les savoirs prononcée le 8 juillet 2005

Par Jean-Michel Gérard * « Les nanostructures semiconductrices »

Au cours des vingt dernières années, les chercheurs ont appris à structurer la matière à l'échelle du nanomètre, en particulier pour les besoins de la microélectronique. Rappelons qu'un nanomètre, c'est un milliardième de mètre, c'est-à-dire cinquante mille fois plus petit que le diamètre d'un cheveu. On parle donc ici d'une échelle extrêmement petite, de l'ordre de quelques distances inter-atomiques au sein des molécules ou des corps solides. A l'échelle du nanomètre, les propriétés physiques sont très différentes de celles qui sont observables dans notre monde macroscopique et sont gouvernées, pour l'essentiel, par la mécanique quantique. Nous allons montrer ici qu'il est particulièrement intéressant de fabriquer des objets de taille nanométrique à partir de matériaux semi-conducteurs. Ces « nanostructures semiconductrices » nous ouvrent des perspectives d'application originales et importantes, grâce à leurs propriétés très particulières.
Nous utilisons tous au quotidien des composants nanométriques, souvent sans le savoir. A titre d'exemple, lorsque nous écoutons notre lecteur de disque compact, nous mettons en Suvre un laser semiconducteur « à puits quantique » pour lire l'information stockée sur le disque. Le cSur de ce composant est constitué par un empilement de couches semiconductrices, qui comporte notamment une couche très fine, le puits quantique, dont l'épaisseur est de l'ordre de 10 nanomètres. Ce composant a été développé il y a une vingtaine d'années et a aujourd'hui de très nombreuses applications.
Les semi-conducteurs constituent une famille de matériaux particulièrement commodes pour fabriquer des nano-structures et exploiter leurs propriétés originales. Après avoir rappelé en termes simples ce qu'est un semi-conducteur, je décrirai les effets quantiques de base attendus pour des structures semi-conductrices de taille nanométrique. Je présenterai ensuite les techniques de fabrication à cette échelle avant d'illustrer par quelques exemples les propriétés et applications des nanostructures semiconductrices.

Qu'est ce qu'un semiconducteur ?

Pour comprendre les propriétés électriques ou optiques des matériaux, il faut de façon générale connaître les états possibles pour les électrons dans le système considéré. Rappelons que ces états sont par exemple très différents pour un électron libre dans l'espace et pour un électron appartenant à un atome. Si l'électron est libre, il peut avoir n'importe quelle vitesse et par conséquent n'importe quelle énergie. S'il appartient à un atome isolé, son énergie ne peut au contraire prendre que certaines valeurs bien définies. Ceci résulte du fait que l'électron, attiré par le noyau atomique, est piégé au voisinage de celui-ci. Plus généralement, la mécanique quantique nous apprend que toute particule dont la position est confinée dans les trois dimensions de l'espace possède un ensemble discret d'énergies permises.
Considérons à présent la situation dans laquelle l'électron n'est plus dans un espace libre mais dans un solide, par exemple un morceau de fer ou un morceau de silicium. Dans ce cas, l'énergie de cet électron ne peut prendre que des valeurs comprises dans certains intervalles (ou « bandes ») d'énergie permise (voir la figure 1). Ceux-ci sont séparés par des « bandes interdites », plages d'énergie pour lesquels le système ne possède aucun état quantique permettant à l'électron d'avoir cette énergie. La connaissance de cette structure de bandes d'un matériau donné permet de définir si celui-ci est un métal ou un isolant. On connaît en effet le nombre d'électrons de ce solide et, d'après une loi physique connue sous le nom de principe de Pauli, on sait qu'on ne peut mettre dans un état quantique donné qu'un seul électron. Dans une « expérience de pensée », plaçons donc les électrons du solide à l'intérieur de ces bandes d'états disponibles. Pour cela, on remplit successivement les différents états, en commençant par ceux de plus basse énergie, jusqu'à ce que tous les électrons soient placés. Dans le cas d'un métal, ce processus s'arrête au milieu d'une bande d'états (voir figure 1). Un tel système électronique va pouvoir répondre très facilement à une sollicitation par une force extérieure, par exemple un champ électrique. En effet, les électrons qui occupent la bande partiellement remplie vont pouvoir se redistribuer aisément au sein de cette bande, puisqu'elle comprend à la fois des états occupés et des états vides très proches en énergie les uns des autres. Un tel solide sera un bon conducteur du courant, et est dit métallique. Supposons au contraire qu'on soit dans une situation pour laquelle les électrons remplissent parfaitement un certain nombre de bandes d'états, toutes les autres étant vides. Dans ce cas, il est beaucoup plus difficile de changer la configuration électronique du système, car il faut apporter une énergie importante pour faire passer un électron d'une bande d'états pleine à une bande d'états vide. Un tel solide, qui ne peut pas répondre à une sollicitation par un champ électrique, est un isolant. Plus précisément, on parlera de matériau semi-conducteur ou de matériau isolant, selon qu'il est possible ou non de rendre ce matériau partiellement conducteur en le fonctionnalisant, en suivant une méthode simple que nous allons décrire.
Nous avons vu que dans un isolant, les bandes d'états sont soit parfaitement remplies par les électrons, soit entièrement vides. On va pouvoir dès lors fonctionnaliser ce matériau en introduisant volontairement des impuretés, ce qu'on appelle « doper » le matériau. Imaginez, par exemple, que dans un cristal de silicium, vous remplaciez des atomes de silicium par des atomes de phosphore qui apportent chacun un électron en plus. Pour placer ces électrons excédentaires, il nous faut commencer à remplir une nouvelle bande, qu'on appelle bande de conduction. Puisqu'ils occupent une bande partiellement occupée, ces électrons vont pouvoir conduire le courant, et la conductibilité du matériau peut être ajustée très simplement en dosant le nombre d'électrons qu'on introduit. De la même façon, si vous insérez des impuretés qui apportent un électron en moins, la dernière bande d'état occupée, appelée bande de valence, ne sera pas complètement pleine. Elle comportera certains « trous », qui permettent ici encore au matériau de devenir conducteur. Le contrôle du dopage des semiconducteurs a constitué une étape clef pour le développement des diodes, des transistors et plus généralement pour l'essor de la microélectronique et de l'optoélectronique.

Figure 1 : Représentation schématique des états électroniques et de leur remplissage par les électrons du solide dans le cas d'un métal, d'un semiconducteur pur, et d'un semiconducteur dopé par des impuretés « donneuses d'électron ».

En considérant la figure 1 b), nous allons voir qu'un semi-conducteur non dopé présente des propriétés très spécifiques vis-à-vis de la lumière. La lumière et la matière interagissent par échange de quanta d'énergie comme l'a montré Einstein en 1905. Ces quantas (les « photons ») peuvent être vus comme des petits grains de lumière, qui ont une énergie hn, où h la constante de Planck et n la fréquence de l'onde lumineuse. Si ce quantum d'énergie hn est plus petit que la largeur de la bande interdite qui sépare la bande de valence de la bande de conduction, le principe de conservation d'énergie nous empêche de promouvoir un électron de la bande de valence à la bande de conduction. Le semi-conducteur ne peut absorber un tel photon, et est donc transparent pour un rayonnement lumineux de fréquence n. Par contre, si l'énergie hn est plus grande que la largeur de la bande d'énergie interdite, il devient possible de faire passer un électron de la bande de valence à la bande de conduction en absorbant un photon.
De plus, un semi-conducteur, peut être mis en Suvre pour émettre de la lumière de fréquence relativement bien définie. Imaginons que nous ayons placé par un moyen idoine, un certain nombre d'électrons dans la bande de conduction et un certain nombre de trous dans la bande de valence. Chaque électron pourra alors redescendre de la bande de conduction à la bande de valence en émettant un photon, avec une énergie voisine de la largeur de la bande interdite. En jouant sur la nature ou la composition du matériau semiconducteur, on peut ainsi ajuster la fréquence du rayonnement émis. Les matériaux les plus employés pour cette fonction sont le nitrure de gallium GaN, le phosphure d'indium InP, ou encore l'arséniure de gallium GaAs, tandis que le silicium, matériau roi de l'électronique, n'est pas un bon émetteur de lumière.
Le principal composant optoélectronique en termes de marché (loin devant la diode laser) est la diode électroluminescente. Ce composant très répandu est largement utilisé pour la visualisation (voyants lumineux, feux de signalisation routière, écrans plats extérieurs...) et de plus en plus pour l'éclairage. Nous reviendrons plus loin sur quelques avancées récentes importantes dans ce domaine.
On peut comprendre relativement simplement comment les diodes électroluminescentes et les diodes lasers émettent de la lumière lorsqu'on leur injecte un courant électrique (figure 2). Juxtaposons côte à côte deux morceaux de semi-conducteur dopés, l'un riche en électrons (SC « de type n ») et l'autre pauvre en électrons (SC « de type p »). Des électrons pourront alors passer de la bande de conduction du matériau de type n vers des états vides de valence du matériau de type p, passage qui s'accompagne de l'émission de photons. Afin d'entretenir ce phénomène, il faut bien entendu apporter des électrons au matériau de type n et en extraire du matériau de type p. Ceci est simplement réalisé en appliquant une tension électrique entre ces deux matériaux via des contacts métalliques.

Figure 2 : Principe de fonctionnement d'une diode électroluminescente (M = métal, SC = semi-conducteur). A droite, diodes électroluminescentes réalisées à partir du semiconducteur GaN (nitrure de gallium).

Afin d'accroître la fonctionnalité des matériaux semi-conducteurs, on peut aussi associer des semi-conducteurs de nature différente, présentant des largeurs de bande interdite différentes, de façon à réaliser une « hétérostructure » semiconductrice. Insérons par exemple une couche d'un matériau à petite bande interdite, P, au sein d'un semiconducteur G de plus grande bande interdite. Plaçons un électron dans la bande de conduction du matériau G. Lorsqu'il se déplace au sein de celui-ci, l'électron « voit » un univers essentiellement uniforme (tous les endroits se ressemblent dans un cristal, les atomes étant parfaitement bien ordonnés). A contrario, lorsqu'il arrive à l'interface entre les matériaux P et G, cet électron peut abaisser son énergie en passant de G à P, car il existe des états de conduction dans le matériau P à plus basse énergie que dans le matériau G. En quelque sorte, l'électron se comporte ici un peu comme une bille qui rencontrerait une marche d'escalier. Il était sur la marche du haut, il saute et tombe sur la marche du bas. On peut bien entendu décliner cette idée de très nombreuses façons, afin de structurer le profil de potentiel vu par l'électron. On va construire pour lui un paysage avec des collines et des vallées, dont le profil et la hauteur peuvent être dessinés quasiment à volonté en jouant avec la nature des matériaux.

Les nanostructures semiconductrices

Invention capitale, les hétérostructures semiconductrices ont déjà valu plusieurs prix Nobel à leurs inventeurs. Derniers en date, Z. Alferov et H. Kroemer se sont vus récompenser en 2000 pour avoir « développé des hétérostructures semiconductrices employées dans les domaines de l'électronique ultrarapide et de l'optoélectronique », selon les termes du comité Nobel. Les hétérostructures « quantiques » sont quant à elles apparues à la fin des années 70. Le principe reste ici le même, à ceci près qu'on va à présent structurer la matière à l'échelle du nanomètre de façon à voir apparaître des effets quantiques. Parmi les exemples les plus célèbres, on peut citer le super-réseau, qui est une sorte de millefeuille, constitué d'un empilement périodique G/P/G/P...de couches semiconductrices de grande bande interdite (G) et de petite bande interdite (P) de quelques nanomètres d'épaisseur. Les super-réseaux possèdent des propriétés de conduction électrique très particulières, dont la découverte a valu le prix Nobel 1973 à L. Esaki. On peut aussi jouer à confiner les électrons dans des nanostructures. L'exemple le plus simple, déjà cité, est le puits quantique G/P/G constitué par une couche mince P, d'épaisseur nanométrique, placée au sein d'un matériau G de plus grande bande interdite. Un électron de conduction, placé dans le puits quantique, est confiné selon une direction de l'espace, mais reste libre de se mouvoir dans les deux autres dimensions. On peut également fabriquer des fils quantiques ou des boîtes quantiques, pour lesquels l'électron est confiné selon deux dimensions ou trois dimensions. Dans le cas des boîtes quantiques, l'électron est confiné dans toutes les directions ; cette situation est tout à fait analogue au cas de l'électron piégé au voisinage du noyau dans un atome. On s'attend donc à retrouver, dans le cas des boîtes quantiques, un système présentant (comme l'atome) des états électroniques discrets, bien séparés en énergie.

Figure 3 : Représentation schématique d'un puits quantique (PQ), de fils quantiques (FQs) et de boîtes quantiques (BQs). Vue en coupe de puits quantiques de GaN dans AlN, obtenue par microscopie électronique à haute résolution (Remerciements à J.L. Rouvière et B. Daudin, CEA).

On sait réaliser des puits quantiques de bonne qualité depuis le début des années 80. A titre d'exemple, la figure 3 montre une vue en coupe d'un puits quantique de GaN au sein d'une couche de nitrure d'aluminium AlN, obtenue par microscopie électronique. Sur cette image, chaque ligne correspond à un plan d'atomes. On voit qu'en fait la structure est très proche de la perfection : d'une part, on passe de la couche de GaN à la couche d'AlN via un changement de composition abrupt à l'échelle atomique ; d'autre part, les interfaces sont presque parfaitement plates, à la présence près de quelques marches atomiques. Comment obtient-on en pratique un tel contrôle ? La perfection de ces objets résulte de la mise en Suvre d'une technique de déposition de films en couches minces, qui s'appelle l'épitaxie par jets moléculaires. Cette technique consiste à prendre un substrat, c'est-à-dire un cristal semi-conducteur sans défaut, sur lequel on va déposer l'hétérostructure désirée. Pour déposer une couche de nature donnée, par exemple en GaAs, on expose la surface du substrat à des flux d'atomes, ici de gallium et d'arsenic, évaporés à partir de cellules chauffées contenant des charges extrêmement pures de ces éléments. On ajuste la composition du matériau qu'on dépose en contrôlant les flux de ces différentes familles d'atomes, et les épaisseurs des couches déposées en jouant sur le temps de déposition. L'épitaxie par jets moléculaires se déroule dans une enceinte dans laquelle on réalise un vide résiduel extrêmement poussé (10-13 atmosphères !) de façon à éviter toute contamination par des atomes indésirables.

Les puits quantiques constituent un exemple simple de système dont les propriétés électroniques sont gouvernées par la mécanique quantique. Ces effets quantiques résultent du confinement de l'électron dans la couche « puits ». On sait depuis L. De Broglie qu'à toute particule on peut associer une onde, et que cette onde représente en fait la probabilité de présence de la particule dans l'espace. Toute onde confinée présente des fréquences de résonance particulière. Considérons par exemple la corde d'un violon ; elle a une longueur bien définie, est fixée à ses deux extrémités, et possède des fréquences de résonance spécifiques : la « note » qui lui est associée, ainsi que ses harmoniques, dont la fréquence est un multiple de celle de la note fondamentale. Il en est de même pour l'électron dans le puits quantique, dont l'onde associée va devoir s'adapter à la taille du puits. De façon analogue à la corde vibrante, dont la longueur est égale à un multiple de la demi longueur d'onde, la longueur d'onde de De Broglie l de l'électron est reliée à l'épaisseur L du puits par la relation L= n. l /2 où n est un nombre entier. De même que la longueur d'onde, l'énergie de l'électron (associée à son mouvement dans une direction perpendiculaire au plan du puits) ne peut prendre qu'un ensemble de valeurs discrètes données par l'expression suivante : . [1] Cette relation nous montre que l'électron a toujours une énergie cinétique minimale, donnée par E1, dont la valeur croît rapidement (comme 1/L2) lorsqu'on réduit la taille L du puits quantique. De même, la séparation énergétique entre les niveaux discrets de l'électron Em- En croît, elle aussi, comme 1/L2. L'étude expérimentale des puits quantiques par spectroscopie optique, par exemple l'étude de leurs propriétés d'absorption de la lumière, a parfaitement confirmé l'ensemble de ces prédictions. Les propriétés des puits quantiques ont été discutées plus en détail par E. Rosencher dans le cadre de ce cycle de conférences de l'UTLS, ainsi que leurs applications très variées en optoélectronique.

Nous allons nous intéresser plus spécifiquement dans la suite de cet exposé aux propriétés et applications des boîtes quantiques, qui ont fait l'objet de très nombreuses études au cours des dix dernières années. Initialement, ces nanostructures ont été principalement développées dans le but d'améliorer les propriétés des diodes laser. Pourquoi fabriquer des boîtes quantiques, et que s'attend t-on à gagner par rapport au laser à puits quantique ?
Ouvrons le boîtier de votre lecteur CD, et regardons à quoi ressemble la diode laser qu'il utilise pour lire le disque. Si on réalise une vue en coupe de ce composant, de façon à obtenir une image analogue à la figure 3, on verra qu'il est constitué par un empilement de couches semi-conductrices. L'une d'elles, de quelques centaines de nanomètres d'épaisseur, sert à guider le faisceau laser à l'intérieur du composant ; en son sein, on trouvera une ou quelques couches plus fines, formant des puits quantiques, qui vont amplifier cette onde laser s'ils sont excités par un courant électrique. Bien que les diodes laser soient des composants présentant des performances tout à fait remarquables, celles-ci sont cependant limitées par certaines lois fondamentales de la physique. Lorsqu'on met des électrons et des trous dans un puits quantique à la température T, l'énergie de ceux-ci n'est pas bien définie, mais distribuée sur une bande d'énergie de largeur typique kT, où k est la constante de Boltzmann. Le laser, quant à lui, fonctionne avec une fréquence d'émission n bien précise. On voit donc que la plupart des paires électron-trou injectées dans le puits, dont l'énergie est différente de hn, ne participent pas à l'émission laser. Ces paires peuvent cependant se recombiner, en émettant un photon par émission spontanée à une énergie différente de hn. Cette consommation d'électrons et de trous, inutiles pour le fonctionnement du laser, accroît la valeur du courant de seuil du laser, courant minimal qu'il faut lui injecter pour assurer son fonctionnement.
En 1982, Y. Arakawa et Y. Sakaki, de l'Université de Tokyo, ont proposé de réaliser des lasers à boîtes quantiques. L'idée sous-jacente était simple, conceptuellement du moins. Dans une boîte quantique, l'électron est confiné dans toutes les directions de l'espace, et ses états électroniques possibles sont discrets, comme pour un atome isolé. Si la boîte est assez petite, les états vont être très bien séparés en énergie comme on l'a vu auparavant, en discutant des effets de confinement. Supposons donc que cette séparation soit plus grande que l'énergie thermique kT (qui vaut 25 meV à température ambiante). Lorsqu'on injecte un électron dans la boîte quantique, celui-ci ne pourra occuper qu'un seul état, celui de plus basse énergie, car l'énergie thermique est insuffisante pour lui permettre d'occuper des états plus hauts en énergie. Il en est de même pour un trou, dans les états de valence de la boîte quantique. On espère donc, si les boîtes quantiques sont toutes identiques, que tous les électrons et les trous injectés vont travailler à la même énergie, ce qui devrait révolutionner les propriétés des lasers : on s'attend par exemple à ce que le courant de seuil soit réduit par un facteur 100 !
Cela étant dit, il faut que l'ensemble de boîtes quantiques satisfasse, pour atteindre cet objectif, un ensemble de conditions draconiennes. Tout d'abord, on veut que les états de la boîte quantique soient très bien séparés en énergie (à l'échelle de l'énergie thermique kT), de façon à ce que seul le premier état électronique de la boîte soit peuplé. Un calcul simple montre qu'alors la boîte quantique doit être plus petite que 15 nanomètres environ pour chacune de ses trois dimensions. Bien entendu, il faut aussi que les boîtes quantiques soient pratiquement identiques. En effet, la position des niveaux quantiques dans une boîte dépend de la taille de la boîte ; elle en dépend même très fortement pour un objet aussi petit, puisque l'énergie de confinement varie comme 1/L2, comme on l'a vu plus haut. On peut montrer facilement que la dispersion des tailles des boîtes quantiques doit être nettement plus petite que 15%. A notre échelle, une précision relative de 15% paraît quelque peu grossière, mais dans le cas présent, cela signifie que les boîtes quantiques doivent être fabriquées avec une précision absolue nettement meilleure que 2 nanomètres ! Enfin, il nous faut mettre en Suvre suffisamment de boîtes quantiques pour que le laser fonctionne effectivement, ce qui implique de fabriquer de l'ordre de un milliard à cent milliards de boîtes par centimètre carré. Chacune de ces trois contraintes, et a fortiori leur combinaison, paraissent extrêmement difficiles à remplir.

Comment fabriquer des boîtes quantiques ?

De nombreuses approches ont été explorées pour fabriquer des boîtes quantiques au cours des vingt dernières années. De façon imagée, on peut dire que la première à avoir fait l'objet d'un intérêt soutenu est celle du sculpteur. On part d'un puits quantique, qu'on cisèle au burin pour former un plot vertical, qui ne contient qu'une toute petite partie du puits. On forme de cette façon une boîte quantique pour laquelle l'électron est confiné suivant un axe vertical par la modulation de composition du semiconducteur (comme pour le puits quantique), et latéralement par les bords du plot. On sait fabriquer de tels objets en utilisant les outils de nanofabrication couramment employés en microélectronique, en particulier la lithographie électronique (qui permet de dessiner des motifs de taille nanométrique dans une résine à l'aide d'un faisceau d'électrons), et la gravure sèche assistée par plasma, qui permet de reproduire ce motif dans le semiconducteur. Bien qu'on ait réussi à fabriquer des boîtes quantiques par cette voie dès 1990, cette approche aujourd'hui abandonnée pose deux problèmes majeurs. D'une part, la lithographie électronique est une technique séquentielle ; il nous faut dessiner le motif désiré dans la résine boîte par boîte. Cette étape est donc fastidieuse et nécessairement coûteuse. D'autre part, on ne sait pas lithographier une résine organique à une échelle inférieure à 3 nanomètres environ. Cette approche n'est donc pas adaptée pour fabriquer un ensemble de boîtes quantiques avec le degré de précision requis pour faire un laser performant.
Fort heureusement, il s'est produit au début des années 90 deux miracles, de ceux dont la Nature a le secret. On a en effet alors découvert qu'il est possible d'obtenir des boîtes quantiques presque identiques très simplement, par auto-assemblage. Nous allons à présent présenter deux méthodes de fabrication de ce type, qui sont aujourd'hui très couramment employées.
La synthèse chimique de boîtes quantiques est assez proche de notre expérience quotidienne. Prenons une casserole d'eau salée, que nous laissons trop longtemps sur le feu. Au début, l'eau s'évapore progressivement, sans qu'on observe de changement particulier. A partir d'un certain moment, on verra cependant de tout petits cristaux de sel commencer à se déposer sur les bords de la casserole. L'eau salée a atteint sa concentration de saturation, ce qui conduit à la précipitation du sel excédentaire sous forme de petits cristaux solides. On peut faire à peu près la même chose à l'échelle nanométrique, avec des semi-conducteurs, par exemple avec le séléniure de cadmium CdSe. Dans la pratique, on prend un récipient dans lequel on met en solution de l'oxyde de cadmium dans un solvant organique. On injecte ensuite brutalement du sélénium dans la solution. Ce faisant, on dépasse le seuil de saturation pour CdSe et on déclenche la nucléation d'un très grand nombre de cristaux nanométriques de CdSe. A ce stade, les molécules de solvant viennent se fixer à la surface des nanocristaux, ce qui va ralentir leur croissance. Du fait de leur formation quasi-simultanée et de leur croissance lente, les nanocristaux conservent des tailles très voisines au cours du temps. Lorsqu'on arrête la croissance à un moment donné en cessant d'apporter du sélénium à la solution, on obtient un ensemble de nanocristaux dont la dispersion des tailles peut être de l'ordre de 5 %, ce qui est tout à fait remarquable pour des objets dont la taille n'est que de 3 nanomètres ! Cette merveilleuse homogénéité est illustrée par le cliché de microscopie électronique présenté sur la figure 4.

Figure 4 : A gauche, vue au microscope électronique d'un ensemble de nanocristaux de CdSe obtenus par synthèse chimique. La fluctuation relative de leur rayon R est de l'ordre de 5%. A droite, observation sous éclairage ultraviolet de flacons contenant des nanocristaux de CdSe dans un solvant: la couleur de la suspension colloïdale peut être ajustée dans tout le spectre visible en jouant sur la taille moyenne des nanocristaux. Remerciements à P. Reiss et J. Bleuse (CEA).

La seconde approche permet de fabriquer des boîtes quantiques par auto-assemblage en utilisant -comme pour les puits quantiques- l'épitaxie par jets moléculaires. Contrairement aux nanocristaux, ces boîtes quantiques vont pouvoir être intégrées facilement au sein d'un composant semi-conducteur, par exemple un laser. Pour présenter cette méthode, considérons une image d'une surface de GaAs sur laquelle on a déposé deux couches moléculaires (soit un demi-nanomètre en moyenne) d'InAs. Cette image, présentée figure 5, a été obtenue par microscopie à force atomique, une technique qui permet d'avoir une résolution à l'échelle atomique sur la topographie d'une surface. On constate ici la formation spontanée d'un ensemble dense d'îlots de taille nanométrique à la surface de l'échantillon. Ce mode de croissance tridimensionnel avec formation d'îlots est en fait observé pour un très grand nombre de couples de matériaux semi-conducteurs.
Pourquoi ce mode de croissance tridimensionnel est-il observé ici ? Lorsqu'on dépose par croissance épitaxiale un semiconducteur A sur un substrat S, on choisit en général deux matériaux pour lesquels la géométrie d'agencement des atomes et leurs distances mutuelles sont les mêmes. Les atomes déposés pour former la couche A adoptent alors de façon naturelle le même ordre cristallin que dans le substrat. (On rencontre une situation analogue lorsqu'on joue aux LegoTM : on peut facilement accrocher des pièces rouges sur un plan de pièces blanches). La croissance se fait alors couche atomique par couche atomique et permet de réaliser des puits quantiques. La situation est différente pour InAs et GaAs, qui ont une même structure cristalline, mais des distances inter-atomiques assez différentes (7% environ). (Une faible différence de distance entre plots d'accrochage suffit pour que les pièces de jeux de constructions différents soient incompatibles !). Pour déposer une couche d'InAs sur GaAs, il va falloir déformer la maille cristalline d'InAs, de façon à adapter la distance entre atomes voisins dans le plan de la couche au paramètre de maille du substrat. Une croissance couche par couche reste ainsi possible, mais la déformation élastique de la couche déposée a un coût en énergie important. Il y a deux solutions pour relaxer cette énergie élastique. La première repose sur la création de défauts cristallins, les dislocations. Une autre solution, adoptée par la Nature dans le cas d'InAs sur GaAs, réside dans la formation d'îlots tridimensionnels. Les atomes à la surface de l'îlot n'ayant pas d'atomes voisins, ils peuvent se « pousser de côté » pour donner plus de place aux autres. Cette morphologie particulière permet donc à la couche d'InAs contrainte de diminuer son énergie élastique.

Figure 5 : A gauche, vue au microscope à force atomique de la surface d'une couche fine d'InAs épitaxiée sur un substrat de GaAs ; les îlots d'InAs ont une hauteur moyenne de 5 nm et une largeur de 20 nm environ à leur base. A droite, vue en coupe d'un plan de boîtes quantiques d'InAs dans GaAs, obtenue par microscopie électronique. Remerciements à JM Moison et A Ponchet, CNRS.

Une fois qu'on a formé ces îlots nanométriques d'InAs, il suffit de déposer une nouvelle couche de GaAs en surface. On obtient alors des inclusions d'InAs, matériau de petite bande interdite, au milieu de GaAs, matériau de plus grande bande interdite, qui constituent de ce fait des boîtes quantiques. Ce procédé de fabrication collectif permet de réaliser en quelques secondes de l'ordre de 10 à 100 milliards de boîtes quantiques par centimètre carré. Il est de surcroît extrêmement propre, puisqu'il se déroule dans l'enceinte du bâti d'épitaxie par jet moléculaire. Quant aux fluctuations de taille, celles-ci ne dépassent pas 7 à 10% lorsque le procédé est optimisé, et sont donc d'amplitude suffisamment faible pour qu'on puisse exploiter ces boîtes quantiques dans des composants optoélectroniques.

Quelques propriétés optiques des nanocristaux et des boîtes quantiques

Considérons à présent les propriétés optiques de ces nano-objets. Nous allons voir que celles-ci présentent des signatures très claires d'effets quantiques. Observons tout d'abord la figure 4, qui présente une série de petites fioles contenant des nanocristaux en solution. Ceux-ci sont constitués du même semi-conducteur, le sélénium de cadmium CdSe. Cependant, on a laissé croître ces nano-cristaux plus ou moins longtemps d'un échantillon à l'autre, de sorte que le diamètre moyen varie graduellement de 3 nanomètres, pour la fiole de gauche à 5nm pour celle de droite. Cette variation de taille provoque un changement spectaculaire de la couleur des nano-cristaux. Cette couleur, qui est ici observée sous excitation par une lampe UV (on est donc en train d'observer l'émission des nano-cristaux), reflète l'énergie de bande interdite de ces boîtes quantiques. Parce qu'on confine fortement l'électron dans ces nano-objets, l'énergie des états électroniques, et donc la largeur de la bande interdite, sont très différentes de celle du semi-conducteur massif CdSe. En ce qui concerne les applications associées à cet effet, il faut mentionner qu'une technique très voisine est employée pour fabriquer des filtres colorés, très utilisés dans les laboratoires d'optique. Au lieu de réaliser la croissance des nanocristaux en solution, on peut en effet les faire précipiter au sein d'une matrice vitreuse, pendant que le verre est fondu. Ce procédé était déjà connu au XVIIème siècle par les artisans verriers de Murano.
Revenons à présent aux boîtes quantiques d'InAs dans GaAs obtenues par épitaxie. Lorsqu'on observe leur émission collective, on constate tout d'abord que sa distribution spectrale est centrée autour d'une énergie hn beaucoup plus grande que la bande interdite du semiconducteur massif InAs, et qui croît lorsque la taille moyenne des boîtes quantiques diminue. Ici encore, le confinement quantique des électrons et des trous entraîne une modification très marquée de la bande interdite du système et donc de ses propriétés d'émission. On constate par ailleurs que cette émission collective est distribuée sur une gamme spectrale très large, typiquement cent mille fois plus large que pour un atome ! D'où cela vient-il ? On se doute que les fluctuations de taille de boîte à boîte sont partiellement responsables de ce résultat. Pour confirmer cette hypothèse et connaître les propriétés intrinsèques des boîtes quantiques, il faut isoler et étudier une boîte quantique unique. Partant d'un plan de boîtes quantiques tel que celui de la figure 5, on va graver celui-ci de façon à définir des plots, dont la taille est de l'ordre de 100 nanomètres, et qui ne contiennent que quelques boîtes, voire une seule boîte. Lorsqu'on réalise cette expérience, on peut observer un spectre d'émission constitué de quelques raies spectrales très fines, qui correspondent chacune à une boîte quantique spécifique (voir la figure 6). Ce comportement, observé à basse température (T

Figure 6 : Spectre d'émission mesuré à basse température (10K) pour un ensemble de boîtes quantiques (à gauche) et pour une boîte quantique isolée, à droite. On notera que l'échelle des énergies est environ 100 fois plus petite pour le spectre de la boîte unique.

Lorsqu'on souhaite discuter les applications futures des boîtes quantiques, par exemple dans le domaine des lasers, il est bien entendu essentiel de considérer leurs propriétés optiques à température ambiante. Nous avons précédemment montré qu'à basse température, une boîte quantique émet, comme un atome, un rayonnement de très faible largeur spectrale. Malheureusement, on perd cette propriété très séduisante dès lors qu'on dépasse une température supérieure à une centaine de Kelvin typiquement. A température ambiante (300K), la raie d'émission observée pour une boîte unique est voisine de 10 milli-électrons volt (soit environ kT/2), ce qui est comparable à la largeur de raie observée pour un puits quantique. On est donc ici très loin de l'image de l'atome artificiel. Plus on élève la température, plus les vibrations des atomes constituant le cristal semiconducteur sont importantes. Ces vibrations cristallines viennent perturber le système électronique et de ce fait élargissent l'émission associée à une boîte unique. Ce résultat, qui n'a été découvert que relativement récemment, nous montre donc que l'image de l'atome artificiel isolé n'est pas du tout valide à haute température. Une boîte quantique est un système électronique localisé fortement couplé à son environnement. En sus de son importance conceptuelle, ce résultat nous invite à reconsidérer les applications initialement envisagées pour les boîtes quantiques.

Quelles applications pour les boîtes quantiques ?

L'observation de raies d'émission larges pour les boîtes quantiques isolées à 300K a sonné le glas du vieux rêve d'Arakawa et Sakaki : il ne sera pas possible d'obtenir un laser à boîte quantique 100 fois plus performant qu'un laser à puits quantique. L'idée de départ était d'avoir une raie d'émission très fine - pour un ensemble de boîtes quantiques très similaires- , qui permette de bien mieux utiliser les paires électron-trou injectées qu'avec un puits quantique. On voit ici que pour une raison tout à fait intrinsèque, ce couplage aux vibrations cristallines, la largeur de raie d'une boîte unique et donc a fortiori d'un plan de boîtes ne peut pas être beaucoup plus étroite que pour un puits quantique.
Très souvent, dans le monde de la recherche, lorsqu'un rêve s'écroule, dix autres naissent. C'est ici le cas. En s'attachant à étudier les propriétés spécifiques des boîtes quantiques, on leur trouve jour après jour de nombreuses opportunités d'application. Il ne saurait ici être question d'en faire une présentation exhaustive ; je n'en citerai donc que quelques unes, choisies pour leur valeur exemplaire.
Plusieurs équipes de recherche ont développé des lasers à boîtes quantiques émettant au voisinage de 1.3 µm - l'une des principales longueurs d'onde employées pour les télécommunications sur fibre optique -, lasers dont les propriétés sont beaucoup moins sensibles à la température celles des lasers à puits quantiques disponibles dans la même gamme spectrale (Cette propriété résulte de la densité d'états discrète des boîtes quantiques : faire passer un électron d'un état à un autre requiert un changement notable de son énergie). Bien que les lasers à boîtes quantiques soient un peu moins performants que les lasers à puits quantiques, leur faible sensibilité aux variations de température permet de simplifier le circuit électronique d'alimentation et de contrôle du laser, et de se dispenser de systèmes complexes de régulation en température. Cette simplification a, bien entendu, a un impact très fort en termes de coût de revient global des modules laser pour les télécommunications à 1.3 µm. Plusieurs start-ups exploitant cette opportunité ont vu le jour aux Etats-Unis, en Europe et au Japon.
C'est cependant dans un domaine différent des lasers, celui des diodes électroluminescentes, que les boîtes quantiques ont trouvé leur principal domaine d'application à ce jour. Les diodes électro-luminescentes (ou « DELs » pour light emitting diodes) représentent un marché colossal supérieur à 3 milliards d'euros par an, et de loin le plus gros marché des composants optoélectroniques. Ce composant très répandu autour de nous est employé pour des fonctions de visualisation et d'éclairage. Les écrans plats extérieurs en couleur, tel que celui que vous voyez sur la tour Montparnasse, reposent sur l'émission de dizaines de millions de DELs. Elles assurent également l'éclairage de l'écran de votre téléphone portable, du tableau de bord des véhicules automobiles récents, et sont présentes dans tous les feux de signalisation routière. Les DELs présentent en fait des avantages très importants par rapport aux lampes à incandescence. Elles consomment typiquement 10 fois moins d'énergie et sont « éternelles », en ce sens que leur durée de vie est 10 fois plus longue que la durée de vie du système dans lequel elles sont incorporées. On saisit très vite l'intérêt d'intégrer ces composants dans un système complexe tel qu'une voiture ; nul n'a envie de démonter un tableau de bord pour changer une simple ampoule ! Si on était capable de remplacer toutes les lampes à incandescence par des DELs blanches, on réduirait aussi très fortement la consommation énergétique associée à l'éclairage, et de plusieurs pour cents la consommation énergétique globale. Les enjeux associés à cette utilisation de plus en plus vaste des DELs sont donc considérables sur un plan économique mais aussi écologique.

Figure 7: Vue en coupe de la couche active d'une DEL bleue commerciale, constituée par une couche très fine d'alliage (InxGa1-x)N dans GaN. Cartographie de la composition chimique de l'alliage, obtenues par microscopie électronique. On observe un phénomène de démixtion et la formation d'inclusions de taille nanométriques très riches en indium (remerciements P. Bayle, CEA).

En 1995, ce domaine a connu une véritable révolution, avec la commercialisation par une société japonaise de DELs bleues et vertes très brillantes. Jusque là en effet, on ne savait produire efficacement de la lumière avec les DELs que dans le rouge ou l'orange. Un épais mystère était attaché au fonctionnement de ces nouvelles DELs. En effet, celles-ci sont réalisées à partir de nitrure de gallium GaN, pour lequel on ne dispose pas de substrat bien adapté à sa croissance épitaxiale. La croissance des DELs GaN est le plus souvent réalisée sur un substrat de saphir, dont le paramètre de maille cristalline est très différent de celui de GaN. De ce fait, la couche épitaxiée contient un très grand nombre de défauts, les dislocations, qui sont connus comme des « tueurs » de paires électron-trou. Celles-ci sont en effet capturées très efficacement par les dislocations, et se recombinent sur ce défaut en générant de la chaleur en lieu et place de photons. Pour les semiconducteurs usuels, on doit donc travailler avec un matériau absolument sans dislocations si on veut obtenir des DELs efficaces. L'analyse par microscopie électronique de la couche active des DELs bleues a donné la clef de ce mystère quelques années plus tard. On s'est alors rendu compte que cette couche active, qu'on croyait être un puits quantique d'alliage (InGa)N, est en fait un ensemble de boîtes quantiques. En cours de croissance, cet alliage présente en effet un phénomène de démixtion, avec formation d'agrégats de taille nanométriques riche en InN, qui constituent des boîtes quantiques (figure 7). Cette nanostructuration de la couche active a des conséquences très importantes. En effet, le piégeage des électrons et les trous dans les boîtes quantiques inhibe presque totalement leur diffusion vers les dislocations, et assure ainsi leur recombinaison radiative. Cette nanostructuration spontanée des couches d'(InGa)N a ainsi engendré un marché de plusieurs milliards d'euros par an !
Les boîtes quantiques offrent de nombreuses autres perspectives d'application, qui font actuellement l'objet d'études exploratoires. L'un des objectifs les plus séduisants est la réalisation d'une source de photons uniques, composant qui exploite l'émission d'une unique boîte quantique. Les composants considérés jusqu'ici, lasers ou DELs, fonctionnent avec des dizaines de milliards de boîtes. Travailler avec une seule boîte quantique nous permet de réaliser une fonction optoélectronique importante et originale, l'émission à la demande de photons un par un. Comme l'a expliqué Philippe Grangier dans une conférence récente de l'Université de Tous Les Savoirs, la disponibilité d'une telle source lumineuse est essentielle en vue d'une application future de la cryptographie quantique à grande échelle. Rappelons ici simplement que la cryptographie quantique propose des protocoles de communication originaux, qui s'appuient sur les lois de la mécanique quantique pour garantir une confidentialité absolue de l'information échangée. Un autre champ d'application des sources à photon unique pourrait être la métrologie. Si on est capable, à la demande, d'émettre une impulsion lumineuse contenant un et un seul photon, on pourrait aussi répéter l'opération 1 million de fois, et émettre précisément 1 million de photons. On pourrait donc utiliser cette source comme étalon de flux lumineux ou plus généralement d'énergie.
Comment préparer un photon unique ? C'est en fait relativement délicat. Un photon unique est un état quantique de la lumière, et il est absolument impossible de le générer par des moyens « classiques » par exemple à l'aide d'un laser, d'une DEL ou d'une lampe à incandescence. A titre d'exemple, lorsqu'un laser génère des impulsions lumineuses contenant en moyenne n photons, le nombre de photons présente en fait une fluctuation d'impulsion à impulsion égale à la racine de n. Pour émettre des photons un par un, il faut en fait utiliser un système quantique unique, tel qu'un atome unique. Isolons par la pensée un atome dans l'espace, et excitons le à l'aide d'un rayonnement lumineux dont la fréquence correspond à l'une de ses raies spectrales. L'absorption d'un photon par l'atome s'accompagne du passage d'un électron d'un état « b » bien défini vers un état « h » lui aussi bien défini, et d'énergie plus élevée. Dans cette nouvelle configuration électronique, l'atome ne peut plus absorber la lumière, puisque l'état « b » est vide. On voit par conséquent qu'un atome excité de cette façon ne peut stocker qu'une excitation élémentaire : lorsqu'on coupe le faisceau de pompage, il se désexcite en émettant un unique photon. En pratique, on sait piéger un atome unique dans l'espace par des méthodes optiques, mais pour une durée qui n'excède pas quelques secondes. Il est ici beaucoup plus commode d'employer une boîte quantique comme « atome artificiel » pour réaliser la même fonction. En collaboration avec des collègues du CNRS, nous avons proposé un protocole original, qui permet de générer des photons un par un à la demande à l'aide d'une boîte quantique. Celui-ci tire en fait parti de la forte interaction de Coulomb entre électrons et trous piégés dans une même boîte. La boîte quantique peut être excitée au choix à l'aide d'un faisceau optique ou à l'aide d'une impulsion électrique, ce qui ouvre la voie au développement de sources de photons uniques compactes et pratiques pour la cryptographie quantique. Plusieurs dizaines d'équipes dans le monde y travaillent aujourd'hui.
Je présenterai enfin un nouvel exemple d'application des nano-cristaux semiconducteurs. A la différence des boîtes quantiques obtenues par croissance sur un substrat, ceux-ci peuvent être dispersés dans différents milieux, en particulier liquides. Ils constituent aujourd'hui une classe de marqueurs fluorescents particulièrement intéressante pour la biologie. On sait aujourd'hui assurer la biocompatibilité de ces nano-objets, ainsi que leur solubilisation dans les liquides physiologiques, en les enrobant par exemple de silice. On sait aussi greffer sur leur surface du matériel biologique, par exemple une protéine ou un fragment d'ADN monobrin, afin de le fonctionnaliser. En cartographiant l'émission des nanocristaux dans l'espace, on peut voir où ce matériel biologique est allé se fixer à l'intérieur d'un organisme, éventuellement jusqu'à l'échelle intracellulaire. Bien qu'il existe des colorants organiques qui remplissent une fonction similaire, les nanocristaux présentent des atouts très importants. Tout d'abord, ils sont dix à cent fois plus stables dans le temps, ce qui permet de faire de longues expériences. Ensuite, le spectre de leur émission est moins large ; il est donc possible d'employer en parallèle des nanocristaux émettant dans des gammes de longueur d'onde différentes et d'obtenir simultanément des informations de nature différente. Enfin, leur biocompatibilité est bien supérieure à celle des colorants organiques, qui sont pour la plupart hautement toxiques.

En conclusion, je voudrais conclure cette présentation, en soulignant le caractère extrêmement vivant de ce domaine. Loin d'être figées, les techniques de nanofabrication font l'objet de nombreux développements, qui permettent par exemple de construire des systèmes quantiques plus complexes (« molécules artificielles » constituées d'un assemblage de boîtes quantiques, dopage par des atomes magnétiques, intégration de boîtes quantiques dans des microrésonateurs optiques...). Mois après mois, de nouveaux résultats viennent enrichir la palette des effets quantiques observables avec les nanostructures semi-conductrices et élargir leur champ d'application potentiel.

*CEA Grenoble, CEA/DRFMC/SP2M, 17 rue des Martyrs, 38054 Grenoble Cedex 9.
Adresse électronique : jean-michel.gerard@cea.fr

[1] Remarquons que l'électron reste libre de se mouvoir dans le plan du puits quantique ; l'énergie cinétique associée à ce mouvement peut prendre une valeur positive quelconque.

 

 DOCUMENT       canal-u.tv     LIEN  

(pour  consulter  la  vidéo, inscrire  le TITRE  dans  le  moteur  de  recherche  de  CANAL U )

LA TRANSGENÈSE ET SES APPLICATIONS

02/10/2016

Texte de la 30ème conférence de l'Université de tous les savoirs réalisée le 30 janvier 2000 par Louis-Maris Houdebine

LA TRANGENESE ET SES APPLICATIONS

Les découvertes des cinquante dernières années nous ont familiarisé avec lidée que la vie nest quun ensemble de réactions physico-chimiques qui se déroulent à lintérieur despaces bien délimités, les cellules. Ces actions sont effectuées pour une part essentielle par des protéines (enzymes, facteurs sanguins, hormones, anticorps, etc.) Les protéines de tous les organismes vivants sont composées des mêmes vingt acides aminés assemblés les uns derrière les autres pour former des chaînes dont la longueur est très diverse. Les protéines peuvent contenir de quelques unités à quelques milliers dacides aminés. Le nombre de combinaisons théoriques des vingt acides aminés est considérable et lensemble des protéines existantes ne représente quune faible partie des possibilités. Lactivité biologique des protéines est directement liée à lenchaînement des acides aminés mais dune manière très complexe. Les chaînes formant les protéines se replient de multiples manières qui sont définies par la séquence des acides aminés. Ces repliements forment les sites actifs des protéines.

La découverte des protéines sest accompagnée de la mise en évidence dune molécule omniprésente dans les organismes vivants : lacide désoxyribonucléique ou ADN qui renferme linformation génétique. Cette molécule est formée dune chaîne de phosphate et de désoxyribose sur laquelle sont accrochées quatre structures appelées bases et symbolisées par les lettres ATGC.

De multiples observations ont montré quun gène est constitué par une région de la chaîne dADN et quà un gène correspond essentiellement une protéine. Des études systématiques ont permis détablir que la succession des bases dans un gène définit directement lenchaînement des acides aminés de la protéine correspondante selon un code universel : le code génétique. Trois bases successives déterminent ainsi quel acide aminé doit participer à la formation de la protéine.

LADN peut donc considérer comme une banque de données dont la cellule fait usage en fonction de ses besoins en protéines. Une copie dun gène sous la forme dun acide ribonucléique messager (ARNm) est formé à la demande de la cellule et décrypté pour synthétiser la protéine correspondante. Ces faits établis il y a bientôt quarante ans définissaient déjà tout le principe du génie génétique. En effet, si les messages génétiques contenus dans lADN ne sont définis que par la succession des quatre bases, il doit être possible de modifier ces messages voire den créer de nouveaux dès lors que lon maîtrise la chimie de lADN. Les techniques essentielles qui permettent de manipuler ainsi lADN ont été définies il y a maintenant un peu plus de vingt ans et avec elles est né le génie génétique qui est désormais un outil très largement utilisé dans de nombreux laboratoires.

Il est admis quil y a une continuité stricte entre la matière inorganisée qui a précédé le Big Bang il y a quinze milliards dannée et la matière très organisée que constituent les organismes vivants apparus sur la terre il y a quatre milliards dannées. Les minéraux représentent un état de complexité intermédiaire.

Les organismes vivants sont eux-mêmes dune complexité très variable qui va croissante des bactéries aux mammifères et à lhomme en passant par les levures et les plantes. Très logiquement, on constate que les organismes vivants les plus complexes sont ceux qui ont le plus grand nombre de gènes. Les bactéries ont ainsi de 350 à 4000 gènes, les levures environ 6000, un des plus petits animaux connus de la famille des nématodes 19099, les plantes environ 20000 et lhomme autour de 100000 (le chiffre proche de la réalité sera connu au cours de lannée 2000). Ces données sont particulièrement révélatrices de la manière dont lévolution a procédé pour faire émerger les différentes espèces. Les mammifères sont en effet beaucoup plus complexes que les bactéries et ils nont pourtant que 50 fois plus de gènes. Les biologistes savent déjà que les gènes, les protéines et les molécules qui en dérivent sont capables dinteragir de manière de plus en plus complexe au fur et à mesure que lorganisme est lui-même devenus plus évolué. La complexité du vivant naît donc au moins autant dune combinatoire de plus en plus sophistiquée de molécules qui le compose que dune accumulation des informations génétiques primaires.

1/ Des gènes au génie génétique

Ces faits ont une répercussion directe et profonde sur les expériences impliquant le génie génétique. Les techniques actuelles permettent virtuellement disoler nimporte quel gène, den étudier la structure, de le modifier et de le réintroduire dans une cellule ou un organisme vivant. Cette dernière opération est une des plus essentielles. Un gène peut en effet se comparer à une bande magnétique. Tous les deux contiennent des messages linéaires codés et aisément modifiables. Ces messages sont en soi inertes. Ils nont dintérêt que par les produits qui en sont issus : une image ou un son dans un cas, une protéine dans lautre cas. Une différence fondamentale existe toutefois entre les deux systèmes ; le lecteur de bande magnétique est indifférent au message quil décode ce qui nest le plus souvent pas le cas pour les gènes dans la mesure où les protéines peuvent agir sur la cellule ou sur lorganisme entier qui les synthétisent.

Un gène peut dans une certaine mesure être comparé à un micro-ordinateur qui contient un message spécifique. Lintroduction dun gène isolé dans une cellule et à fortiori dans un organisme entier revient alors à connecter le micro-ordinateur à un réseau de micro-ordinateurs déjà interconnectés et interagissant. Une telle incursion peut enrichir le réseau de manière harmonieuse ou à linverse perturber profondément son fonctionnement.

La transgenèse est lopération qui consiste à ajouter un gène étranger à un organisme pluricellulaire (plantes ou animaux) entier ou à remplacer un des ses gènes par un autre. Il est bien évident que dans lun et lautre cas, les effets du transgène sur lorganisme ne peuvent être totalement prévisibles aussi bien connues que soient les propriétés du gène étranger et de la protéine correspondante. La transgenèse est donc par essence un retour au complexe, lisolement dun gène et son étude in vitro étant au contraire une étude volontairement réductionniste. Les conséquences dune transgenèse sont donc à priori inévitablement en partie inconnues. La gestion du complexe que représentent lagriculture et lélevage est en réalité une activité très familière pour les communautés humaines. La sélection génétique consiste classiquement à repérer les effets biologiques intéressants (prolificité, résistance aux maladies etc.) apparus spontanément chez quelques individus au hasard de la redistribution des gènes lors de la reproduction sexuée et de mutations résultant derreurs dans la réplication de lADN. La reproduction privilégiée des individus dotés des propriétés biologiques intéressantes conduit progressivement à létablissement de lignées ou de races. Cette méthode de sélection a largement fait ses preuves et nous en bénéficions grandement. La sélection classique est toutefois une opération le plus souvent réalisée en aveugle. Le sélectionneur ne sait en effet le plus souvent rien des gènes quil a sélectionnés ni de leurs effets individuels. Seul le résultat global est généralement pris en compte. Le remaniement des chromosomes dans les cellules germinales consiste à redistribuer les gènes parentaux de manière aléatoire. Ceci explique que les enfants dun même couple sont différents. Le remaniement des chromosomes parentaux concerne de longs segments dADN qui portent de nombreux gènes contigus. La sélection dun gène ayant un intérêt biologique attendu saccompagne donc inévitablement de la co-sélection de gènes voisins inconnus dont les effets ne sont pas toujours bénéfiques. Ainsi, des taureaux, des verrats, etc. retenus comme géniteurs en raison de leur potentiel génétique intéressant savèrent parfois à lusage porter également un gène parfaitement nuisible pour lélevage. Ces géniteurs doivent alors être éliminés non sans parfois avoir entraîné des pertes financières importantes. Il en est de même pour la sélection végétale.

La transgenèse évite, par essence, une bonne partie de ces effets imprévisibles. La modification génétique quelle représente a des effets en grande partie attendus, dans la mesure où les propriétés du gène étranger sont elles-mêmes connues. La transgenèse ne correspond par ailleurs quà une seule modification génétique de lorganisme. La transgenèse vue ainsi est donc en principe moins hasardeuse que la sélection classique. Tout bien considéré, les mutations obtenues par transgenèse ne sont généralement pas plus complexes que celles engendrées par les mécanismes naturels à chaque cycle de reproduction. La gestion des organismes transgéniques peut donc logiquement sinspirer de celle des organismes obtenus par sélection classique.

2/ Les techniques de transfert de gènes

Le transfert dun gène isolé à un organisme nest quexceptionnellement un phénomène spontané. Si tel nétait pas le cas, lintégrité des espèces ne serait pas une réalité puisque les organismes vivants sont très fréquemment en contact direct avec lADN dautres espèces. Les virus qui ne sont constitués que de quelques gènes associés à des protéines ont une capacité exceptionnelle à pénétrer dans les cellules. Ce processus que lon nomme une infection est primordiale pour le virus qui doit absolument utiliser la machinerie cellulaire dont il est dépourvu pour se répliquer. Lintroduction de gène étranger destiné à obtenir des organismes transgéniques requiert donc des méthodes expérimentales variées. La plus utilisée chez les animaux consiste à procéder à une microinjection directe du gène isolé en solution dans le noyau ou le cytoplasme dun embryon au stade une cellule. Dans une petite proportion de cas (de lordre de 1%) le gène étranger sintègre à LADN de lembryon et se transmet ainsi à ses cellules filles puis à sa descendance.

Cette méthode ne peut être appliquée aux végétaux. Deux techniques sont dans ce cas le plus souvent utilisées. Lune consiste à introduire le gène étranger dans un vecteur dérivé dune bactérie. Celui-ci pénètre aisément dans la cellule végétale et sintègre dans son ADN. Lautre méthode est utilisée pour les végétaux ne pouvant bénéficier du vecteur. Elle consiste à faire pénétrer de force des microbilles métalliques enrobées dADN contenant le gène étranger dans les cellules végétales en les projetant à haute vitesse. Dans lun et lautre cas, le transfert de gène doit être suivi dune régénération complète dune plante à partir de la cellule ayant subi la modification génétique.

Laddition de gène est lopération la plus simple et de loin la plus fréquemment pratiquée. Le remplacement spécifique de gène est également hautement souhaitable. Il permet en pratique de remplacer un gène de lorganisme par un gène inactif (ceci revient alors à supprimer sélectivement un gène de lorganisme) ou par un autre gène actif. Cette opération nest actuellement possible que chez les animaux (et les microorganismes). Elle implique en effet que lADN étranger contenant le gène de remplacement reconnaisse très spécifiquement le gène ciblé pour pouvoir se substituer à lui par un processus de recombinaison homologue. Cette opération nest finalement couronnée de succès que si la cellule dans laquelle a eu lieu le remplacement de gène peut donner naissance à un organisme entier. Cette régénération très couramment pratiquée chez bon nombre de plantes est particulièrement malaisée chez les animaux. En pratique, la cellule animale modifiée doit être celle dun embryon précoce capable, une fois introduite dans un embryon précoce hôte, de participer au développement de lorganisme jusquà transmettre la mutation à la descendance. Cette méthode laborieuse est utilisée depuis plus de 10 ans mais, pour des raisons techniques, chez la souris seulement. Le remplacement de gène par recombinaison homologue a donc pendant une décennie été réservée à cette seule espèce.

Une autre approche très séduisante peut en principe reposer sur la technique de clonage des animaux. Cette technique mise au point il y a environ quinze ans consiste à reconstituer léquivalent dun embryon en introduisant le double stock de chromosomes dune cellule dans un ovocyte préalablement énucléé. Ceci na pendant longtemps été possible quen partant de cellules embryonnaires non différenciées (totipotentes) et non cultivées. Des améliorations techniques relativement minimes ont permis dobtenir des clones de moutons en partant de cellules embryonnaires totipotentes cultivées (un an avant la naissance de Dolly) puis à partir de cellules fStales différenciées et enfin de cellules adultes. Ces expériences ont été menées essentiellement pour tenter de simplifier la technique de transgenèse. Il est en effet en principe possible de transférer des gènes étrangers dans des cellules cultivées utilisées ensuite pour engendrer des animaux qui se trouvent être transgéniques. Laddition de gène a ainsi été couronnée de succès (naissance de Polly) un an après la naissance de Dolly. En 1999, le remplacement de gène chez les moutons a pu être obtenu par recombinaison homologue par le même procédé.

Laddition de gène est ainsi simplifiée et le remplacement de gène est devenu possible chez les ruminants domestiques et très vraisemblablement chez dautres espèces dans le futur.

Les fragments dADN qui sont utilisés pour la transgenèse sont généralement construits au laboratoire pour diriger lexpression du gène étranger spécifiquement dans un tissu donné. La connaissance limitée que lon a actuellement du mode de fonctionnement des gènes ne permet encore quune approche empirique raisonnée dans la construction des futurs transgènes. Des progrès rapides récents dans ce domaine laisse prévoir pour un avenir assez proche un contrôle satisfaisant du fonctionnement des transgènes dans la majorité des cas.

3/ Les applications de la transgénèse

La transgenèse, a dès ses débuts chez les animaux en 1981 puis en 1983 chez les plantes, été définie avant tout comme un outil de recherche. Laddition ou le retrait dune information génétique dans un organisme entier est en effet un moyen incontournable pour déterminer les mécanismes moléculaires qui contrôlent le fonctionnement des gènes et le rôle des gènes eux-mêmes dans lexpression des fonctions biologiques. Lidentification systématique et massive des gènes de certains organismes par le séquençage complet de leur ADN va logiquement être suivie dune utilisation plus intense de la transgenèse chez quelques organismes modèles comme la souris et le tabac.

La maîtrise du vivant que représente la transgenèse a rendu possible des applications nouvelles dans le domaine médical et agronomique. Létude des maladies humaines ne peut se passer de modèles animaux. Les modèles pertinents résultant de mutations spontanées sont rares. Dans le meilleur des cas, des modèles particulièrement précieux peuvent être obtenus par addition ou remplacement de gènes. Cest surtout la souris qui est sollicitée en raison de son faible coût dutilisation. Dautres espèces sont parfois nécessaires pour diverses raisons, cest le cas notamment du rat, du lapin, du porc et des primates non humains. Cette approche expérimentale est devenue récemment plus simple et potentiellement plus utile à la suite de lamélioration des techniques de transgenèse.

Les animaux et les plantes sont depuis des temps immémoriaux la source de substances dotées de propriétés pharmacologiques. Ces substances nont, par le passé, été que rarement des protéines. Jusquà une époque récente en effet, un nombre relativement petit de protéines était connu et seulement quelque unes dentre elles pouvaient être extraites pour être administrées à lhomme. Cétait le cas de linsuline de porc pour le traitement des diabétiques. Le génie génétique offre la possibilité de préparer virtuellement nimporte quelle protéine en abondance en transférant le gène correspondant dans des bactéries, des levures, des plantes ou des animaux. Linsuline et lhormone de croissance humaine proviennent désormais essentiellement de bactéries recombinées. Plusieurs dizaines de protéines dintérêt pharmaceutique ont été obtenues à partir du lait danimaux ou de plantes transgéniques. La première protéine extraite ainsi du lait doit être mise sur le marché en 2000. Beaucoup dautres suivront et on peut considérer quune nouvelle branche de lindustrie pharmaceutique est née.

La transgenèse peut jouer un rôle décisif dans le domaine des greffes dorganes. Plusieurs milliers de personnes meurent chaque année en France par manque de greffon humain. Limpossibilité quil y a et qui persistera sans doute longtemps de remédier à cette situation a fait resurgir une idée déjà ancienne. Certains organes ou cellules des animaux et notamment ceux du porc pourraient probablement être utilisés à la place de matériel humain. Les rejets extrêmement violents des organes animaux ont jusquà maintenant empêchés les xénogreffes de devenir une réalité. Des succès partiels mais bien réels ont été obtenus dans la dernière décennie du XXème siècle. Des cSurs et des reins de porcs transgéniques abritant des gènes capables dinhiber le système du complément humain responsable du rejet hyper-aigu des éléments étrangers ont pu être maintenus, intègres, pendant plusieurs semaines après avoir été greffés à des singes.

De multiples obstacles, y compris dans le domaine de la connaissance des mécanismes de rejet, restent à franchir pour que la xénogreffe devienne une réalité médicale. La xénogreffe peut toutefois dans lavenir concerner plus les cellules qui sont moins sujettes aux rejets que les organes. La démonstration récente que des cellules embryonnaires humaines peuvent être différenciées in vitro en cellules souches dorganes laisse penser que des cellules humaines préparées de cette manière pourraient être dans lavenir utilisées plutôt que leurs homologues dorigine porcine. La situation actuelle incite à imaginer que la xénogreffe ou la greffe à partir de cellules humaines différenciées pourraient être retenues comme moyen thérapeutique au cas par cas en fonction des problèmes à résoudre. Le transfert de gène dans les cellules ou via la transgenèse pourrait permettre aux cellules porcines non seulement dêtre mieux tolérées mais également dapporter des protéines ayant une activité thérapeutique. Une thérapie génétique serait alors réalisée en même temps quune thérapie cellulaire.

Les applications agronomiques de la transgénèse commencent à être significatives, en ce qui concerne les végétaux. Elles sont, pour des raisons techniques, tout juste naissantes chez les animaux. La transgenèse permet dans certains cas de conférer aux plantes et aux animaux une résistance contre les maladies. Ceci se traduit ou se traduira par une moindre utilisation de pesticides et dantibiotiques ainsi que par une simplification de la tâche des agriculteurs et des éleveurs. La résistance des animaux à des maladies devenue ainsi génétiquement transmissible a par ailleurs toutes les chances de réduire la souffrance des animaux, de permettre de consommer des viandes plus saines et diminuer la fréquence des zoonoses.

Certains projets de transgenèse nont dautre but que de réduire la pollution. Des porcs transgéniques expérimentaux rejettent ainsi deux fois moins de phosphate dans lenvironnement. Des plantes transgéniques ont été spécialement conçues pour capter certains ions métalliques toxiques présents spontanément dans le sol ou apportés à la suite dune activité industrielle.

Des plantes capables de se développer dans des sols salés ou alcalins impropres à lagriculture ont été obtenues par transgenèse. Ceci permet denvisager de conquérir de nouvelles terres.

La modification volontaire de la composition des plantes ou des animaux via la transgenèse peut permettre de fournir aux consommateurs des aliments plus riches en éléments essentiels voire plus sapides. Le riz doré capable dapporter un supplément de vitamine A aux 400 millions dêtres humains qui en manquent et sont menacés de devenir aveugles ainsi que de fer aux 4 milliards de personnes carencées est un exemple éloquent. Le transfert de plusieurs gènes a dû être réalisé pour atteindre ce but.

Diverses améliorations des produits animaux sont également envisagées. Elles concernent la composition du lait, des graisses, de la carcasse, de la laine, etc.

Il est intéressant de mentionner également que les végétaux qui sont déjà la source de molécules non destinées à l'alimentation humaine ou animale vont de plus en plus être sollicités pour servir comme base à la synthèse de plastiques biodégradables, de carburants, etc. La transgenèse peut dans certains cas apporter des solutions uniques ou originales et très satisfaisantes.

4/ Les problèmes posés par la transgenèse

La transgenèse est actuellement vue surtout par ses applications très marginales mais spectaculaires dans lalimentation humaine. Les OGM (organismes génétiquement modifiés) ont très mauvaise presse. Ce fait ne laisse de surprendre la majorité des biologistes qui considèrent que la transgenèse appliquée à lalimentation est à priori une des techniques puissantes les moins dangereuses que lhumanité ait inventées. Certes, un organisme transgénique est par définition en partie inconnu, mais cela est aussi le cas dun organisme obtenu par sélection classique ou dun aliment exotique. Les tests classiques de toxicité, oncogénicité et allergénicité accompagnés dune traçabilité raisonnable doivent pouvoir réduire les risques à un niveau bien inférieur à celui de beaucoup dautres techniques très généralement acceptées. Il est incontestable que certaines plantes, transgéniques ou non, posent des problèmes environnementaux dont limportance ne peut pas être aisément évaluée. Les modèles de laboratoire ne peuvent en effet que difficilement prendre en compte de manière satisfaisante des paramètres comme lespace et le temps. Les biotechnologistes ont quelque difficulté à imaginer comment leurs actions dans le domaine agronomique pourraient faire ne serait-ce que dix ou cent fois moins de victimes que lautomobile. Les réticences actuelles des consommateurs ne sont toutefois pas incompréhensibles. Toute nouveauté effraie. Les condamnations actuelles des OGM ressemblent à sy méprendre à celles appliquées aux vaccins il y a un siècle. Il est vrai quune désinformation qui a atteint un niveau peu commun ne fait quentretenir la confusion. Les critiques vis à vis des OGM sont en fait bien souvent dirigées plus contre la société libérale mal contrôlée que contre la technique elle-même. Les OGM en font actuellement les frais. Il est vrai que leur utilisation ne devrait pas tomber sous la coupe dentreprises qui détiennent des monopoles de fait. Lobtention du riz doré financée par lUnion Européenne et la fondation Rockefeller indique que la situation est bien plus ouverte et diverse que certains ne le prétendent. Les réticences des pays riches vis à vis des OGM ne sont pas partagées par ceux qui souffrent de pénuries alimentaires. Les chinois consomment ou utilisent actuellement au moins sept plantes transgéniques. Il ne semble pas que ces cultures se fassent sans contrôle. Les agriculteurs chinois sappuient en effet sur les résultats des expériences réalisées dans les pays développés et notamment les USA. Lavenir de lagriculture ne peut reposer sur un retour aux techniques anciennes, pas plus que la médecine traditionnelle ne saurait être un remède à certaines dérives des pratiques médicales modernes. Une application raisonnée des techniques agronomiques modernes, y compris de la transgenèse, paraît plus appropriée. En face de la demande croissante des consommateurs humains, le principe de précaution invite à mettre à notre disposition toutes les techniques de transgenèse pour optimiser les productions végétales et animales, quitte à ne pas les utiliser si des alternatives au cas par cas savèrent tout aussi efficace.

La transgenèse appliquée à lespèce humaine est en principe possible. Tout le monde ou presque saccorde pour considérer quune telle opération ne devrait comporter aucun risque technique et ne concerner que des activités thérapeutiques. La première condition nest pas actuellement remplie mais on peut imaginer que cela sera un jour le cas. Les thérapies géniques germinales ne peuvent raisonnablement concerner que le remplacement de gènes responsables de maladies humaines par leurs homologues non mutés. Ce type dopération est et restera probablement difficile et elles devront être accompagnées de contrôles stricts pour sassurer que la modification génétique induite est bien celle que lon attendait. Cette approche thérapeutique se trouverait en compétition directe avec le tri des embryons portant les gènes défectueux. Il y a tout lieu de penser que la deuxième solution paraîtra majoritairement comme la plus satisfaisante.

La modification du patrimoine génétique dun être humain non destinée strictement à remplacer un gène défectueux par un gène sain paraît difficilement envisageable sans risque. Laddition dun gène, conférant une résistance vis à vis dune maladie infectieuse, paraît séduisante à première vue. Nul ne peut prévoir tous les effets du transgène et ce qui est acceptable pour les animaux et les plantes ne lest plus pour l'espèce humaine. Il est concevable de procéder à des transgènes réversibles. Ceci ne paraît pas suffire à justifier lutilisation de cette technique pour l'espèce humaine.

Les générations qui nous suivront trouveront peut-être légitime et souhaitable de modifier le patrimoine génétique humain pour toute sorte de bonnes raisons. On pourrait en effet par exemple souhaiter que les êtres humains soient plus sereins et moins féroces envers leurs semblables ou plus modestement quils aient une vieillesse biologiquement plus douce. Il nest en rien certain que la transgenèse, dans le meilleur des cas, puisse apporter une solution à des problèmes aussi complexes. Quoiquil en soit, il serait sans doute prétentieux de condamner par avance les décisions de nos descendants. Il nous suffit, dans les faits, dêtre pleinement en accord avec nos convictions actuelles. Elles nous indiquent sans ambiguïté que la transgenèse ne doit pas âtre appliquée à lespèce humaine.

 

 DOCUMENT       canal-u.tv     LIEN  

(pour  consulter  la  vidéo, inscrire  le TITRE  dans  le  moteur  de  recherche  de  CANAL U )

le comportement anormal d'un matériau nanoporeux

25/09/2016

Paris, 6 avril 2016
Expirer en inspirant : le comportement anormal d'un matériau nanoporeux

Véritables éponges high-tech de l'infiniment petit, les matériaux nanoporeux permettent de capturer et libérer de manière contrôlée les composés chimiques, gaz ou liquides. Une équipe franco-allemande comprenant des chercheurs de l'Institut de recherche de Chimie Paris (CNRS/Chimie ParisTech) et de l'Institut Charles Gerhardt de Montpellier (CNRS/Université de Montpellier/ENSCM)1 a mis au point et décrit un de ces matériaux au comportement totalement contre-intuitif, le DUT-49. Lorsque la pression augmente pour faire entrer davantage de gaz dans un échantillon de DUT-49, celui-ci se contracte subitement et libère son contenu comme si, au cours d'une inspiration, les poumons se rétractaient et expulsaient l'air qu'ils contiennent. Publiés le 6 avril 2016 sur le site de la revue Nature, ces travaux permettent d'envisager des comportements innovants en science des matériaux.
La capture de molécules toxiques dans l'air ambiant, le stockage de l'hydrogène ou la libération ciblée de médicaments… Autant d'applications qui peuvent faire appel à des matériaux nanoporeux flexibles. Ces matériaux utilisent la grande surface déployée par leurs pores pour capter et stocker les molécules de gaz ou de liquide : c'est le phénomène d'adsorption2. Leurs pores peuvent ainsi adsorber des quantités impressionnantes de produits, s'agrandissant dans la limite de leur flexibilité.

Une équipe franco-allemande a conçu un nouveau type de matériau nanoporeux : le DUT-49. Formé par auto-assemblage d'un squelette carboné et d'atomes de cuivre, sa structure est à la fois organique et métallique. Il se présente sous la forme d'une poudre incroyablement poreuse : la superficie interne3 d'un seul gramme de ce matériau couvre 5000 m². Le DUT-49 est ainsi capable d'adsorber l'équivalent du tiers de son poids en méthane. Tout comme les autres matériaux « intelligents » de sa famille, ses propriétés changent selon les stimulations extérieures, comme la pression, la température ou la lumière. Si l'on augmente la pression lors de la capture d'un gaz, on augmente à la fois la quantité de gaz adsorbée et, dans le cas le plus courant, la taille des pores du matériau. La très grande flexibilité du DUT-49 provoque cependant un phénomène imprévu : alors que le matériau se remplit de gaz jusqu'à une certaine pression, il va se contracter brutalement et voir son volume diminuer de moitié si la pression continue d'augmenter.

Les chercheurs ont d'abord cru à une erreur d'instrumentation, car aucun autre des millions de matériaux connus qui adsorbent les gaz ne se comporte ainsi. Ce phénomène « d'adsorption négative » a pourtant bien été confirmé par des mesures complémentaires et l'équipe est parvenue à en décrire le mécanisme. Les molécules de gaz stockées dans les pores du DUT-49 établissent des interactions fortes avec la structure de ce solide ce qui, selon la quantité de gaz adsorbée, perturbe la disposition des atomes qui le composent et finit par provoquer sa contraction. Testé avec le butane et le méthane, ce comportement caractéristique du DUT-49 serait généralisable à d'autres composés gazeux.

DUT-49 rejoint les récentes découvertes de matériaux aux propriétés physiques « anormales », comme ceux à expansion thermique négative qui se contractent lorsqu'ils sont chauffés. Ce résultat ouvre un grand champ d'étude dans la compréhension des matériaux poreux flexibles et permet d'envisager des comportements innovants en science des matériaux. Il pourrait ainsi conduire à développer des interrupteurs et des capteurs à échelle nanométrique. Le dégonflement du matériau correspond en effet à une réponse forte à un petit évènement, déclenché à partir d'une valeur seuil facilement détectable.

 

 DOCUMENT         cnrs        LIEN 

Sans microbes, pas d'immunité efficace

18/09/2016

 Sans microbes, pas d'immunité efficace
Jean-Philippe Braly dans mensuel 468 
daté octobre 2012 -


Le système immunitaire d'un nouveau-né a besoin des microbes de l'environnement pour devenir performant. Cette hypothèse ancienne vient d'être récemment démontrée.
Dans le ventre de sa mère, baigné par le liquide amniotique, le foetus grandit dans un milieu stérile : sauf grave infection maternelle, il se trouve à l'abri des microbes. Mais à la naissance, il est brusquement confronté aux bactéries, virus ou champignons qui colonisent le vagin de sa mère, puis à tous ceux qui foisonnent dans l'environnement. Or, contrairement à celui d'un adulte, son système immunitaire a, à ce stade, encore du mal à les reconnaître spécifiquement, même s'il est moins immature qu'on l'a longtemps pensé (lire « Le foetus se défend mieux que prévu », p. 51).

On estime qu'il lui faut deux à trois années avant d'être fonctionnel. Comment apprend-il à réagir efficacement contre les intrus, tout en contrôlant cette agressivité afin qu'elle ne menace pas les cellules de l'organisme ? On le découvre aujourd'hui : une partie de la réponse se trouve dans tous les microbes qui colonisent l'enfant dès sa naissance - sa peau, sa bouche, ou encore et surtout son tube digestif. Ce n'est pas le moindre des paradoxes : les bactéries et autres microbes qui composent cette flore, en particulier la flore intestinale, sont indispensables à la mise en place d'un système immunitaire équilibré.

Double défi
L'hypothèse selon laquelle la flore microbienne - aujourd'hui appelée microbiote - jouerait un rôle dans la construction de l'immunité n'est pas nouvelle : elle a été évoquée dès 1907 par Elie Metchnikoff, un des fondateurs de l'immunologie à l'Institut Pasteur. Mais un siècle plus tard, l'explorer reste un défi. En effet, les investigateurs se heurtent à une double complexité : celle du système immunitaire, et celle du microbiote.

Très sophistiqué, le système immunitaire implique, chez les mammifères adultes, une multitude d'acteurs. En schématisant à l'extrême, on trouve en première ligne des cellules sentinelles (cellules dendritiques et macrophages) capables de détecter d'éventuels intrus (par exemple des bactéries). Elles les ingèrent, les digèrent, puis exhibent à leur surface des fragments protéiques caractéristiques de ces intrus. Ces fragments sont ensuite détectés par des cellules appelées lymphocytes T « effecteurs CD4+ ». Activés par ce contact, les lymphocytes T déclenchent alors différents mécanismes visant à éliminer les intrus (par exemple, certains lymphocytes T stimulent les lymphocytes B producteurs d'anticorps). Le tout se déroule sous le contrôle de multiples mécanismes régulateurs, qui impliquent notamment une catégorie particulière de lymphocytes T, les lymphocytes T régulateurs, capables d'inhiber les lymphocytes T effecteurs. De l'équilibre entre ces différentes populations de lymphocytes dépend en grande partie l'équilibre du système immunitaire tout entier (lire « Les lymphocytes T, des défenseurs bien entraînés », p. 46).

Souris sans microbes
Quant au microbiote, sa complexité tient à l'extrême diversité des micro-organismes qui le constituent. Rien qu'au niveau de notre tube digestif, pas moins de cent mille milliards de bactéries cohabitent, appartenant à plusieurs centaines d'espèces différentes, et dont la majeure partie n'est pas identifiée.

Fort heureusement, pour comprendre l'interaction entre microbiote et système immunitaire, les scientifiques disposent depuis plusieurs années d'un précieux outil d'investigation : des souris dépourvues de microbiote, car nées et élevées en milieu stérile. On parle de souris « axéniques ». Ces animaux ont permis de mettre en évidence combien la flore intestinale était indispensable à un développement harmonieux des nouveau-nés. En effet, les souriceaux axéniques présentent de nombreuses anomalies, en particulier au niveau du système immunitaire. Il suffit de regarder leurs organes lymphoïdes, c'est-à-dire les structures où les lymphocytes T et B se multiplient, pour s'en rendre compte : les plaques de Peyer, situées le long de l'intestin, restent immatures quand ces animaux grandissent, de même que la rate et les ganglions lymphoïdes. Cela s'accompagne, dans l'organisme, d'un déficit en lymphocytes matures. Aujourd'hui, on commence à discerner la façon dont le microbiote intervient dans la maturation du système immunitaire. Grâce, là encore, aux souris axéniques : en colonisant leur tube digestif avec un ensemble de bactéries, ou une bactérie en particulier, on peut étudier la façon dont ces microbes influencent les acteurs du système immunitaire.

Certaines équipes ont choisi d'utiliser, comme souris axéniques, des animaux « modèles » de telle ou telle maladie auto-immune, maladies où le système immunitaire attaque les cellules de l'organisme. En 2008, une étude pilotée par Alexander Chervonsky, de l'université de Chicago, a marqué les esprits. Son équipe et lui étudient la genèse du diabète de type 1, où le système immunitaire s'attaque aux cellules du pancréas sécrétrices d'insuline. Il s'agit d'une maladie multifactorielle, avec en particulier des déterminants génétiques. Mais les résultats des biologistes de Chicago suggèrent qu'elle dépend aussi, en partie, de la flore intestinale [1].

Influence bénéfique
Alexander Chervonsky et ses collaborateurs ont travaillé avec des souris dites « NOD », qui développent spontanément un diabète de type 1 à l'âge adulte. Ils les ont comparées à des souris NOD mutées de sorte que leur capacité à développer une flore intestinale normale en présence de bactéries soit perturbée. Tant les souris NOD que les souris NOD mutées étaient axéniques, car élevées en conditions stériles. Il s'agissait de voir si, une fois sorties de ce milieu stérile et colonisées par des bactéries, les souris NOD mutées développaient un diabète comme les souris NOD non mutées. Et si oui, de comparer leur flore respective.

Résultat : les souris NOD mutées ne sont pas devenues diabétiques, contrairement aux souris NOD non mutées. Pourquoi ? « Certaines espèces bactériennes - des lactobacilles notamment - se sont davantage développées chez les souris NOD mutées que chez les autres, indique Gérard Eberl, chercheur à l'Institut Pasteur. Leur rôle exact reste à définir, mais on pense que certaines bactéries intestinales accentueraient des mécanismes régulateurs du système immunitaire, l'empêchant ainsi de s'attaquer aux cellules du soi », complète-t-il.

Quels mécanismes exactement ? Pour l'instant, on l'ignore. En revanche, d'autres études ont montré que certaines bactéries jouaient un rôle particulièrement important dans les proportions entre les différents types de lymphocytes T.

L'un des exemples les plus marquants à ce jour concerne la bactérie Bacteroides fragilis. En 2005, Sarkis Mazmanian, Dennis Kasper et leurs collaborateurs de l'école de médecine de Harvard, ont montré que cette espèce bactérienne corrige, à elle seule, certaines anomalies sévères observées chez les souris axéniques [2]. En particulier, la rate des souris colonisées par Bacteroides fragilis se développe normalement, alors qu'elle reste immature chez les animaux axéniques. Et le déficit en lymphocytes T effecteurs CD4+ dont souffrent ces animaux est corrigé, atteignant un niveau normal. Plus précisément, Sarkis Mazmanian et Dennis Kasper ont montré que la colonisation par Bacteroides fragilis rétablissait la balance entre deux sous-types de ces lymphocytes, les Th1 et Th2 (ces derniers étant proportionnellement plus nombreux chez les souris axéniques). Les biologistes de Harvard ont même réussi à déterminer d'où la bactérie tirait ses propriétés : « D'une molécule qu'elle produit, le polysaccharide A, ou PSA », explique Sarkis Mazmanian. Purifié puis administré à des souris axéniques, le PSA reproduit à lui seul l'ensemble des effets dus à la colonisation par Bacteroides fragilis.

Mais Bacteroides fragilis n'est pas la seule bactérie à influencer la balance lymphocytaire. En 2009, une équipe européenne pilotée par Nadine Cerf-Bensussan, de l'Inserm, a mis en évidence le rôle d'une bactérie filamenteuse nommée SFB [3]. Les biologistes ont observé que la colonisation de souris axéniques avec une flore intestinale normale déclenchait l'expression de nombreux gènes, caractéristique d'une réponse immunitaire de l'organisme. Ils ont ensuite essayé de reproduire le phénomène en administrant à des souris axéniques soit des bactéries bien identifiées, soit des mélanges bactériens plus ou moins complexes. C'est là qu'ils ont découvert le rôle étonnant de la bactérie SFB. « La colonisation de l'intestin par SFB active des cellules immunitaires, en particulier des lymphocytes T effecteurs, indique Nadine Cerf-Bensussan. Ils se différencient et migrent le long de l'intestin, où ils assurent une fonction protectrice. »

Cellules régulatrices
Quant aux lymphocytes T régulateurs, à l'action anti-inflammatoire, ils semblent eux aussi bénéficier de la présence de certaines bactéries. Sarkis Mazmanian a montré, en 2010, que Bacteroides fragilis induit leur prolifération dans la muqueuse du côlon [4] [fig. 1]. Et en 2011, une équipe japonaise a révélé qu'un cocktail de bactéries du genre Clostridium exerçait un effet semblable [5].

L'équilibre entre toutes les catégories de lymphocytes T semble donc bien être sous influence du microbiote, du moins chez la souris. Reste une question clé : qu'en est-il chez l'homme ? Tester des hypothèses est bien évidemment beaucoup plus compliqué qu'avec des souris axéniques. D'autant que chaque espèce de mammifères a sélectionné, au fil de l'évolution, un microbiote qui lui est propre. Venant appuyer des résultats préliminaires obtenus par l'équipe de Nadine Cerf-Bensussan, une récente étude pilotée par Dennis Kasper a prouvé qu'une flore humaine échouait à restaurer un système immunitaire normal chez des souris axéniques [6].

Mais certains indices militent néanmoins en faveur d'une implication tout aussi importante des microbes au sein de nos propres organismes. En particulier, depuis les années 1990, des études épidémiologiques montrent un développement plus important des allergies et de certaines pathologies auto-immunes dans les pays développés, en parallèle avec une hygiène de plus en plus stricte - et donc une moindre confrontation des jeunes enfants aux microbes. Plus récemment, des travaux comparant une cohorte d'enfants burkinabés avec des enfants italiens ont montré que la flore bactérienne intestinale est moins diversifiée chez ces derniers [7]. « Tout cela renforce la théorie hygiéniste selon laquelle les dysfonctionnements du système immunitaire à l'origine de certaines pathologies auto-immunes seraient favorisés par la flore trop peu diversifiée des enfants occidentaux », explique Gérard Eberl. Cela perturberait la maturation du système immunitaire, et en particulier la mise en place de sa composante régulatrice.

 

 DOCUMENT     larecherche.fr       LIEN

Le système immunitaire

03/09/2016

Le système immunitaire
Laure Schalchli dans mensuel 301 


Des millions d'anticorps et un grand principe : pour reconnaître l'étranger, encore faut-il se connaître soi-même
La masse du système immunitaire est comparable à celle du foie ou du cerveau. Mais il est éparpillé dans tout l'organisme. En font partie les globules blancs circulant dans le sang, dans la lymphe et imprégnant les tissus. Les principales cellules de l'immunité sont les lymphocytes, qui sont les globules blancs majoritaires dans le sang. Un homme adulte en contiendrait quelque deux mille milliards. Mais il existe beaucoup d'autres cellules impliquées dans l'immunité : globules blancs polynucléaires, monocytes ou macrophages, mastocytes, cellules dendritiques.

Le système immunitaire c'est aussi une série d'organes et de tissus dits lymphoïdes : les ganglions, la moelle des os, la rate, les amygdales, les végétations, l'appendice et des tissus associés au tube digestif et aux poumons en font partie. S'y ajoute le thymus, un organe situé dans le thorax derrière le sternum, qui grossit jusqu'à la puberté puis s'atrophie à l'âge adulte.

Toutes les cellules impliquées dans l'immunité prennent naissance dans la moelle des os. Certains lymphocytes se différencient dans le thymus. Puis ils migrent dans le sang et la lymphe et séjournent temporairement dans la rate, les ganglions, en se concentrant à proximité de la peau et des muqueuses, partout où le risque de pénétration d'intrus est grand. En permanence, le système immunitaire assure l'intégrité de l'organisme face aux substances étrangères, aux bactéries, aux virus, aux parasites.

Quand a-t-il été découvert ?
Le 14 mai 1796, un médecin de Berkeley, Edward Jenner, fait une expérience capitale. Il prend au mot une croyance populaire, selon laquelle une maladie de la vache cowpox , maintenant appelée vaccine peut rendre l'homme réfractaire à la variole. Il introduit du pus d'une femme atteinte de la maladie bovine dans le bras du jeune James Phipps, un enfant de 8 ans en parfaite santé. Six semaines plus tard, il injecte au garçon du pus d'un malade atteint de variole. James Phipps reste en bonne santé. La vaccination est née.

Un peu plus de quatre-vingts ans plus tard, Louis Pasteur fournit un début d'explication au succès de Jenner. En injectant à des poules de vieilles souches atténuées de bacilles du choléra, Pasteur et Emile Roux les protègent d'une infection ultérieure par le même microbe, mais pas par d'autres germes. Pasteur répète l'expérience, entre autres, avec des bacilles du charbon inactivés par la chaleur. On trouve ici les propriétés essentielles des réactions immunitaires : la vaccination ne protège que contre l'agent vaccinant spécificité, la protection est complète efficacité, le vaccin protège pendant des années, voire toute la vie mémoire.

Peu après, le zoologiste et microbiologiste russe Ilya Mechnikov propose sa théorie « cellulaire » de l'immunité, qui fait intervenir des cellules spécialisées. Pour la première fois, il suggère que l'inflammation n'est pas une composante nocive de la maladie, mais une réaction de l'organisme qui tend à protéger le malade. C'est au tournant du siècle que la réaction immunitaire est rattachée à l'apparition dans le sang de protéines spécifiques, les anticorps. En 1890, l'Allemand Emil von Berhing et le Japonais Shibasaburo Kitasato isolent les premiers d'entre eux, des substances solubles capables de neutraliser les toxines diphtérique et tétanique.

Qu'est-ce qu'un anticorps ? Comment est-il fabriqué ?
Le nom d'abord, anticorps, vient de ce que cette substance reconnaît le corps étranger et s'y fixe. On ne parle pas d'anticorps sans parler de son partenaire obligé, l'antigène, nommé ainsi parce que c'est justement... le « générateur » d'anticorps. L'antigène est le composé qui, quand on l'introduit dans l'organisme, provoque la formation d'anticorps spécifiques dirigés contre lui. La définition se mord la queue.

Les anticorps sont des protéines solubles présentes dans le sang. On les appelle également immunoglobulines. Elles sont fabriquées par un type particulier de globules blancs, les lymphocytes B. Le sang humain en contient une quantité énorme : un litre recèle environ soixante-dix grammes de protéines, dont dix à vingt grammes d'immunoglobulines.

Un casse-tête a dès le départ préoccupé les immunologistes. Un anticorps reconnaît de façon extrêmement fine et spécifique un antigène. Or il existe, dans la nature, un nombre indéfini d'antigènes. Le système immunitaire peut donc produire des anticorps contre n'importe quoi, y compris des substances créées par l'industrie chimique du XXe siècle.

Pour l'expliquer, on a d'abord pensé que les anticorps s'adaptent à l'antigène injecté, qu'ils « apprennent » sa forme en s'y modelant. Ce modèle, dit instructionniste, a été défendu jusqu'à la fin des années 1950. Il a été détrôné par celui de la « sélection » des anticorps : une diversité énorme d'anticorps existe bel et bien dans l'organisme. L'arrivée d'un antigène sélectionne ceux qui le reconnaissent et s'y fixent. Un processus somme toute très darwinien. Le modèle de la sélection supposait cependant de résoudre un problème de taille : la fabrication de millions d'anticorps différents, bien plus que le nombre total de gènes disponibles dans les chromosomes.

Deux phénomènes génétiques exceptionnels, qui ont lieu dans les lymphocytes, assurent une telle diversité. Ils ont été découverts pendant les années 1970. Le premier est un « remaniement » du génome. Chaque anticorps est codé par un gène unique, construit à partir de plusieurs pièces détachées : au moins trois tronçons génétiques différents, choisis parmi plus d'une centaine, sont coupés et placés bout à bout. De plus, l'assemblage des tronçons est assez imprécis. Ce jeu de combinaisons permet de produire une diversité considérable d'anticorps, libérés par autant de lymphocytes différents. Des chiffres ont été avancés, très divers eux aussi : un million, dix milliards...

Le second processus laisse encore les généticiens perplexes. Certaines portions des gènes codant les anticorps mutent à une vitesse impensable dans le reste du génome. Le taux de mutation peut y être jusqu'à dix millions de fois plus élevé. Ce mécanisme, qui entraîne une augmentation extrême de la diversité, touche les anticorps déjà sélectionnés par l'antigène. Il a lieu dans les lymphocytes activés, en réponse à l'antigène, et se solde par la production et la sélection d'anticorps encore plus « performants ».

Notons enfin que contrairement à une simplification abusive, chaque antigène est reconnu par de nombreux anticorps différents. Et vice versa : un même anticorps reconnaît plusieurs antigènes. Les immunologistes parlent de dégénerescence de la reconnaissance.

Pourquoi rejette-t-on les greffes ?
Parce que l'organe greffé contient des composants, plus exactement des protéines, qui n'existent pas dans le corps du receveur. Le système immunitaire détecte ces protéines étrangères et détruit les tissus qui les portent.

Ces protéines spéciales sont appelées « molécules d'histocompatibilité » du grec histos , tissu. Elles ont des propriétés étonnantes. Normalement, à l'intérieur d'une espèce, donc chez l'homme, les protéines varient peu d'une personne à l'autre, sauf anomalie génétique. Dans le cas des molécules d'histocompatibilité, pour une seule protéine - c'est-à-dire pour un seul gène - on peut trouver plus de cent versions différentes dans la population. Comme ces protéines sont de surcroît assez nombreuses quelques dizaines, deux individus pris au hasard ont très peu de chances de porter les mêmes. Les protéines d'histocompatibilité sont ainsi de très bons marqueurs du « soi » biologique. Dernière particularité, toutes les cellules de l'organisme exhibent ces protéines à leur surface. A quelques exceptions près : les spermatozoïdes en sont dépourvus ; les globules rouges aussi, ce qui facilite les transfusions...

Ces protéines sont codées par un groupe de gènes, le « complexe majeur d'histocompatibilité » CMH. Qui est effectivement fort complexe et très étudié par les immunologistes et les généticiens. Il contient au moins une cinquantaine de gènes différents, mais seulement certains dits de classe I et II interviennent dans la reconnaissance du soi. Chez l'homme, on appelle souvent ces protéines HLA human-leucocyte-associated antigens , parce qu'elles ont été découvertes par hasard sur les globules blancs les leucocytes. On les distingue par des lettres : HLA A, B, C, E, F, G, DP, DQ, DR... Deux vrais jumeaux ont exactement les mêmes HLA. Deux frères et soeurs ont moins d'une chance sur seize d'hériter d'un lot identique. Connaissant la répartition des différentes formes de HLA dans la population, on estime que cette probabilité tombe à un sur 40 000 pour deux personnes prises au hasard.

D'autres protéines jouent un rôle mineur dans le rejet des greffes. Elles sont très variées et la liste est loin d'être close. L'une d'entre elles, « HY », est présente uniquement chez les hommes, car elle est codée par un gène situé sur le chromosome Y. Résultat : une femme rejette le rein ou le coeur d'un homme, même s'ils ont les mêmes HLA.

Comment le système immunitaire détecte-t-il les intrus ?
Dans les années 1970 a été faite une découverte étonnante : le système immunitaire n'est pas capable d'identifier les composés étrangers tels quels. Il ne reconnaît le « non-soi » que s'il est associé aux marqueurs du « soi » : les antigènes ne sont vus que s'ils sont portés, présentés par les protéines d'histocompatibilité. Tout est affaire de coopération entre cellules.

Très schématiquement, la reconnaissance de la plupart des bactéries qui pénètrent dans l'organisme se déroule de la façon suivante. En permanence, des sentinelles abondantes dans la peau, les muqueuses et les ganglions, les cellules dendritiques et les macrophages, captent les intrus et les ingèrent. Les antigènes bactériens sont digérés, fragmentés, puis exhibés à la surface de ces cellules. Ils n'y sont jamais exposés seuls, mais nichés au sein des protéines d'histocompatibilité. C'est sous cette forme que le système immunitaire les reconnaît. La reconnaissance est assurée par les lymphocytes : tous portent à leur surface des molécules semblables aux anticorps, mais ancrées sur la cellule. Ceux qui fixent spécifiquement l'antigène intrus sont sélectionnés et se multiplient. Entrent d'abord en jeu les lymphocytes T, baptisés ainsi parce que leur maturation se fait dans le thymus, puis les lymphocytes B, qui produisent les anticorps.

Autre cas possible : l'organisme est envahi par des virus. C'est la cellule infectée qui présente directement aux lymphocytes des fragments du virus, lovés dans les protéines du soi.

Lorsqu'un antigène a été reconnu une première fois, le système immunitaire s'en souvient. La mémoire repose sur des cellules à durée de vie extrêmement longue : elles - ou leurs descendantes - restent dans la rate, dans les ganglions, pendant des mois ou des années, prêtes à se réveiller si l'antigène réapparaît. En revanche, la très grande majorité des lymphocytes ne vivent que quelques jours : après avoir été activés et s'être multipliés à très grande allure pendant la réponse immunitaire, ils meurent en masse, se suicidant en réponse à des signaux externes. On ignore complètement ce qui permet à certains d'échapper à l'hécatombe.

Comment les détruit-il ?
L'organismerépond généralement à l'invasion de bactéries ou de virus par de la fièvre, puis par une réaction inflammatoire : le lieu de l'infection devient rouge, douloureux, gonflé. Les tissus infectés libèrent des substances chimiques qui dilatent les vaisseaux, provoquent un afflux de sang, attirent les globules blancs. Ces derniers affluent et détruisent les bactéries ou les cellules infectées. Si l'on entre dans les détails de la réponse immunitaire, l'affaire se complique très vite. Entrent en jeu une panoplie de cellules qui communiquent soit par contact physique, soit en libérant dans leur voisinage des signaux chimiques.

Les anticorps neutralisent les bactéries ou leurs toxines en les agglutinant et en activant contre elles des enzymes sanguines, regroupées sous le nom de système du complément. Mais ce n'est que l'une des armes du système immunitaire. L'entrée de bactéries provoque un recrutement en cascade. Les lymphocytes T « auxiliaires » ou CD4 activent les lymphocytes B, qui se multiplient et sécrètent les anticorps. Un seul lymphocyte peut en produire plus de dix millions par heure. D'autres cellules, les polynucléaires et les macrophages, ingèrent et tuent les microbes. La lutte contre les virus ou contre certaines bactéries se développant à l'intérieur des cellules fait intervenir d'autres acteurs, les lymphocytes T tueurs ou CD8. Ces derniers reconnaissent directement les cellules infectées et les tuent en y déclenchant un programme interne de suicide.

D'où viennent les maladies auto-immunes ?
La question est loin d'être vraiment résolue. Dans ces maladies, le système immunitaire s'attaque aux propres éléments de l'organisme : les cellules du pancréas dans certains diabètes, la gaine des neurones dans la sclérose en plaques, les globules rouges dans certaines anémies... L'élément déclenchant reste assez mystérieux. Un point est sûr : nous produisons tous des anticorps et des lymphocytes dirigés vers les constituants du corps humain. Certains pensent même que c'est indispensable à l'équilibre du système immunitaire. Mais en temps normal, ces lymphocytes sont inactifs.

Très tôt, durant la vie embryonnaire, le système immunitaire apprend à devenir tolérant vis-à-vis de ses propres constituants. Dans le thymus de l'embryon, beaucoup de lymphocytes dirigés contre les constituants du corps sont éliminés. D'autres sont simplement « muselés », empêchés d'agir on parle d'anergie des lymphocytes. L'hypothèse actuelle est que pour entrer en jeu un lymphocyte a besoin de recevoir au moins deux signaux. D'une part, il lui faut reconnaître l'antigène, présenté par une cellule adéquate. D'autre part, il doit recevoir en même temps un signal délivré par la cellule présentatrice, par contact direct ou sous forme d'une substance soluble. Dans l'embryon, ce second signal ferait défaut, ce qui entraînerait la mort ou l'anergie de tous les lymphocytes reconnaissant les constituants du corps.

Cette « éducation » du système immunitaire se poursuit à l'âge adulte. L'organisme fabrique en permanence des lymphocytes dirigés contre ses propres constituants. C'est la présence ou l'absence du second signal - qui reflète peut-être le danger associé à l'antigène - qui aiguillerait le système vers la tolérance ou vers la réaction immunitaire. Certaines maladies auto-immunes ont été associées à des HLA particuliers. La présentation de l'antigène par telle ou telle molécule d'histocompatibilité pourrait favoriser l'activation des lymphocytes dirigés contre les constituants du corps. Une autre piste est qu'une infection virale peut modifier la présentation des antigènes du soi et induire certains lymphocytes à y réagir.

Pourquoi un corps étranger comme le foetus est-il toléré par la mère ?
C'est ce qu'on appelle le « privilège immunitaire », qui profite d'ailleurs aussi aux cellules cancéreuses. Il n'existe pas d'explication unique à ce phénomène.

Pour le foetus, le scénario suivant est avancé. Lorsque l'oeuf se niche dans l'utérus, ses enveloppes ne portent pas les protéines d'histocompatibilité HLA classiques ; il échappe ainsi au rejet de greffe. Cependant, les cellules sans HLA sont normalement détruites par une catégorie spéciale de cellules immunitaires, les cellules tueuses naturelles, qui reconnaissent l'absence du soi. Et l'utérus en regorge. L'embryon échapperait à la destruction car ses enveloppes portent un autre type de protéines HLA, appelées HLA-G, qui agissent comme des immunosuppresseurs.

Quant aux cellules cancéreuses, elles produisent des antigènes anormaux qui devraient également entraîner leur destruction par le système immunitaire. Peut-être y échappent-elles par le mécanisme décrit ci-dessus. Leur furtivité pourrait aussi être liée au fait que ce ne sont pas de bonnes « présentatrices » d'antigènes : elles ne délivreraient pas le second signal adéquat. Autre hypothèse : les cellules cancéreuses libèrent des signaux captés par les cellules immunitaires, les poussant à un suicide anticipé ou rendant leur réponse inefficace. Ces hypothèses ne sont pas exclusives : l'homme évolue avec ses tumeurs depuis des millions d'années, aux cours desquelles a dû s'instaurer un dialogue complexe entre ces dernières et le système immunitaire.

D'où viennent les allergies ?
Ce sont des réactions immunitaires exacerbées - et surtout mal aiguillées. Leur nom fait référence à cette réponse particulière du grec allos , autre, et ergon , travail. La rougeur, l'oedème, les démangeaisons sont dus à la libération dans la peau, dans les muqueuses du nez, dans les bronches, de grandes quantités de substances chimiques responsables de l'inflammation, en particulier de l'histamine. Ces substances font partie intégrante d'une réponse immunitaire normale, mais la machine s'est emballée.

Même si seulement 10 à 20 % des personnes s'en plaignent, tout le monde est plus ou moins allergique. C'est une question d'équilibre dans la réponse immunitaire. Un antigène peut, une fois qu'il a été reconnu par les lymphocytes T auxiliaires, donner lieu à deux réponses différentes. Schématiquement, la première voie recrute les lymphocytes tueurs et permet le rejet des greffes ou la lutte antivirale. La seconde, mise en jeu dans la lutte contre les parasites et beaucoup de bactéries, favorise la formation d'anticorps. Ces voies ont été baptisées TH1 et TH2 pour T helper 1 et 2, parce qu'elles sont mises en route par deux types de lymphocytes auxiliaires, qui émettent des signaux différents. Dans l'allergie, la balance penche vers TH2, et en particulier vers la production d'un type d'anticorps appelé IgE pour immuno- globuline E. Ces anticorps stimulent la libération explosive de l'histamine et d'autres signaux par des cellules spécialisées, les mastocytes.

Certains antigènes - comme ceux des pollens des graminées, qui donnent le rhume des foins - sont plus propices à la production d'IgE. Mais l'allergie est aussi une question de prédisposition génétique : certaines personnes sont plus disposées à répondre par l'une ou l'autre des deux voies immunitaires.

Les éponges, les oiseaux, les végétaux ont-ils un système immunitaire ?
Tout dépend de ce qu'on appelle immunité. Les éponges ou les colonies de coraux sont capables de rejeter un élément étranger. Il s'agit d'un système de reconnaissance du non-soi, mais qui n'a rien à voir avec l'immunité assurée par les lymphocytes. De même, les plantes, les insectes peuvent réagir à un agresseur en relarguant des substances toxiques antibiotiques, protéines. Mais il n'y a pas de reconnaissance précise de l'antigène.

Ce type d'immunité non spécifique, sans mémoire, a bizarrement été qualifiée de « naturelle » ou d'« innée ». Elle correspond, chez l'homme, à l'action des cellules tueuses naturelles, des macrophages ou du complément.

Des molécules, dont la structure est proche de celle des anticorps, ont été retrouvées chez les vers nématodes ou les insectes. Mais cela n'implique pas une parenté de fonction. L'immunité spécifique ou « adaptative » apparaît chez les vertébrés. Presque tous ont un système immunitaire avec des anticorps. A une exception près : on n'en a pas retrouvé chez les vertébrés les plus primitifs, les poissons sans mâchoires ou agnathes, comme la lamproie. Les poissons, les batraciens, les reptiles, les oiseaux ont un thymus. La coopération entre lymphocytes, qui permet la maturation de la réponse immunitaire, atteint son efficacité maximale chez les mammifères.

 

   DOCUMENT       larecherche.fr       LIEN

Les échanges hippocampe-cortex pendant le sommeil consolident la mémoire

28/08/2016

Les échanges hippocampe-cortex pendant le sommeil consolident la mémoire
Marc GozlanPar Marc Gozlan
Voir tous ses articles
Publié le 23-05-2016 à 17h38
Mis à jour le 24-05-2016 à 08h42

Des chercheurs français apportent pour la première fois la preuve que la mémorisation à long terme des souvenirs implique un échange pendant le sommeil entre ces deux zones du cerveau.
 

 

MÉMOIRE. Depuis les années 1950, on considère que les souvenirs sont initialement formés dans l’hippocampe et migrent progressivement dans le cortex pour y être stockés sur le long terme. Bien qu’étayée par de nombreux travaux expérimentaux, cette hypothèse n’a jamais encore été directement validée. Des chercheurs du CNRS, de l’Inserm et du Collègue de France viennent de rapporter dans la revue Nature Neurosciences des résultats obtenus chez le rat qui montrent un lien causal entre un dialogue hippocampe-cortex au cours du sommeil et la mémorisation à long terme, en l’occurrence le fait de se souvenir de l’emplacement d’un objet par ce rongeur.

Les chercheurs ont manipulé la coordination dans le temps entre hippocampe et cortex après que des rats aient été entraîné à une tâche de mémoire spécialement destinée à déclencher un encodage d’une tâche mnésique, mais pas suffisante pour provoquer sa consolidation à long terme. Les chercheurs ont entraîné ces rongeurs à mémoriser les positions de deux objets identiques dans une pièce. Le lendemain, alors qu’un objet avait été déplacé, les rats devaient déterminer lequel des deux avait bougé.

Les rats réussissaient le test lorsqu’ils passaient 20 minutes sur place le premier jour, mais ils échouaient s’ils n’étaient restés que 3 minutes. Cette différence se reflétait également dans les couplages entre hippocampe et cortex pendant le sommeil juste après la première exploration. En effet, ce dialogue entre ces deux structures est plus important chez les rats qui réussissaient le test le lendemain.

Afin de prouver que ces couplages étaient bien la cause de la mémorisation, les chercheurs ont utilisé un dispositif destiné à produire à volonté des couplages entre l’hippocampe et cortex. Il permettait de détecter en temps réel les ondulations de l’hippocampe et de déclencher aussitôt des ondes delta issues du cortex et des fuseaux de sommeil dans le cortex. Les « fuseaux de sommeil » (ou spindles) correspondent à de petites bouffées de rythmes rapides observables à l’électroencéphalogramme lors du sommeil lent.

Une stimulation électrique aux effets étonnants

Résultat : l’utilisation de ce dispositif chez des rats entraînés pendant seulement 3 minutes le premier jour, et qui n’étaient donc pas censés se souvenir de l’emplacement des objets le lendemain, a permis à ce que les réussissent parfaitement le test. Lorsque la stimulation intervenait en revanche après un délai variable entre l’activité dans l’hippocampe et celle du cortex, l’effet disparaissait. Au total, il s’avère que le renforcement, par l’intermédiaire d’une stimulation électrique, de la coordination naturelle entre les ondes hippocampiques, les ondes corticales et les « fuseaux de sommeil » entraîne une réorganisation de réseaux neuronaux du cortex préfrontal, qui se traduit par une meilleure réponse des rongeurs à une tâche de mémoire le lendemain.

Reste à démontrer que ces résultats, éclairant sur les mécanismes de la mémorisation à long terme chez l’animal, puissent être confirmés chez l’homme. Et l’on imagine déjà les tenants de la "neuroaugmentation" (encore appelée "dopage cérébral", "optimisation cérébrale" ou encore "neuro-optimisation"), nous expliquer qu’il sera bientôt possible d’agir sélectivement sur les souvenirs que l’on souhaite renforcer. C’est un peu vite oublier (!) que cette expérience ne concernait qu’un seul souvenir correspondant à une tâche exécutée… la veille chez un rat.

SÉMANTIQUE

20/08/2016

SÉMANTIQUE

Étude du sens des unités linguistiques et de leurs combinaisons.


LINGUISTIQUE
L'avènement d'une discipline ayant le sens pour objet (la sémantique) a été relativement tardif (le terme a été créé par M. Bréal en 1897). Considérant, à la suite de Saussure, que la langue devait être décrite « en elle-même et pour elle-même », c'est-à-dire avant tout comme une forme, les linguistes structuralistes ont établi une distinction rigoureuse entre forme et sens, ce qui laisse la possibilité de dégager un niveau d'analyse autonome : le niveau sémantique.
La sémantique structurale se fonde sur le concept saussurien de valeur, selon lequel la « signification » d'un signe ne se limite pas à la relation entre un signifiant et un signifié mais doit être également conçue comme résultant de la relation de ce signe avec d'autres signes : l'anglais sheep et le français mouton peuvent avoir la même signification mais ils n'ont pas la même valeur, puisque l'anglais comporte, en outre, mutton (viande de l'animal) ; d'où le projet de constituer des « champs sémantiques » de termes, puis des « microsystèmes » dont les sens se délimitent réciproquement. Dès lors, les comparaisons entre signes permettent de dégager des unités minimales de signification (les sèmes ou traits sémantiques) par des procédures analogues à celles utilisées en phonologie.
La sémantique distributionnelle prend pour base que le sens des unités linguistiques est en relation étroite avec leur distribution, c'est-à-dire avec la somme des environnements dans lesquels elles apparaissent : on pourra ainsi classer les divers sens d'un terme en fonction des constructions auxquelles il participe : l'adjectif fort, par exemple, appliqué à une personne, change de sens lorsqu'il est suivi d'un complément prépositionnel (un homme fort / fort aux échecs / fort en sciences).
La sémantique générative, prolongeant et critiquant la grammaire générative, part de la constatation que deux phrases de même sens peuvent avoir des structures profondes différentes. Il faut donc envisager les structures profondes non plus au niveau syntaxique mais au niveau sémantique. Cette structure sémantique profonde, très abstraite, est constituée d'un ensemble de traits logiques dont la combinaison aboutit aux structures de surface.
Ainsi, la sémantique, qui était à l'origine une analyse du sens au niveau du mot, se situe désormais au niveau de la phrase, voire du discours (pragmatique).

En savoir plus sur http://www.larousse.fr/encyclopedie/divers/s%C3%A9mantique/91079#MObVvOfDT6ThfBcW.99

 

 DOCUMENT      larousse.fr     LIEN

LES LUNES DE MARS

07/08/2016

Paris, 4 juillet 2016
Un impact géant : le mystère de l'origine des lunes de Mars enfin percé

 

D'où viennent Phobos et Deimos, les deux petits satellites naturels de Mars ? Longtemps, leur forme a fait croire qu'ils étaient des astéroïdes capturés par Mars. Cependant la forme et l'orientation de leur orbite contredisent cette hypothèse. Deux études indépendantes et complémentaires apportent une réponse à cette question. Dans l'une, sous presse dans The Astrophysical Journal, des chercheurs majoritairement du CNRS et d'Aix-Marseille Université1 excluent la capture d'astéroïdes et montrent que le seul scénario compatible avec les propriétés de surface de Phobos et Deimos est celui d'un impact géant. Dans l'autre étude, grâce à des simulations numériques de pointe, une équipe belgo-franco-japonaise montre comment ces satellites ont pu se former à partir des débris d'une collision titanesque entre Mars et un embryon de planète trois fois plus petit. Ces travaux, fruit d'une collaboration entre des chercheurs de l'Université Paris Diderot et de l'Observatoire royal de Belgique, en collaboration avec le CNRS, l'Université de Rennes 12 et l'institut japonais ELSI, sont publiés le 4 juillet 2016 dans la revue Nature Geoscience.
L'origine des deux lunes de Mars, Phobos et Deimos, restait un mystère. Par leur petite taille et leur forme irrégulière, elles ressemblent beaucoup à des astéroïdes, mais on ne comprend pas comment Mars aurait pu les « capturer » pour en faire des satellites en orbite presque circulaire, dans le plan équatorial de la planète. Selon une théorie concurrente, Mars aurait subi à la fin de sa formation un impact géant avec un embryon de planète ; mais pourquoi les débris d'un tel impact auraient-ils formé deux petits satellites plutôt qu'une énorme lune, comme celle de la Terre ? Une troisième possibilité serait que Phobos et Deimos se soient formés en même temps que Mars, ce qui impliquerait qu'ils aient la même composition que leur planète ; cependant, leur faible densité semble contredire cette hypothèse. Aujourd'hui, deux études indépendantes viennent conforter la théorie de l'impact géant. 

Dans l'une d'elles, une équipe de recherche belgo-franco-japonaise propose pour la première fois un scénario complet et cohérent de formation de Phobos et Deimos, qui seraient nés des suites d'une collision entre Mars et un corps primordial trois fois plus petit, 100 à 800 millions d'années après le début de la formation de la planète. Selon ces chercheurs, les débris de cette collision auraient formé un disque très étendu autour de Mars, formé d'une partie interne dense, composée de matière en fusion et d'une partie externe très fine, majoritairement gazeuse. Dans la partie interne de ce disque se serait d'abord formée une lune mille fois plus massive que Phobos, aujourd'hui disparue. Les perturbations gravitationnelles créées dans le disque externe par cet astre massif auraient catalysé l'assemblage de débris pour former d'autres petites lunes plus lointaines. Au bout de quelques milliers d'années, Mars se serait alors retrouvée entourée d'un cortège d'une dizaine de petites lunes et d'une énorme lune. Plusieurs millions d'années plus tard, une fois le disque de débris dissipé, les effets de marée avec Mars auraient fait retomber sur la planète la plupart de ces satellites, dont la très grosse lune. Seules ont subsisté les deux petites lunes les plus lointaines, Phobos et Deimos (voir l'infographie en fin de communiqué).

À cause de la diversité des phénomènes physiques mis en jeu, aucune simulation numérique n'est capable de modéliser l'ensemble du processus. L'équipe de Pascal Rosenblatt et Sébastien Charnoz a dû alors combiner trois simulations de pointe successives pour rendre compte de la physique de l'impact géant, de la dynamique des débris issus de l'impact et de leur assemblage pour former des satellites, et enfin de l'évolution à long terme de ces satellites. 

Dans l'autre étude, des chercheurs du Laboratoire d'astrophysique de Marseille (CNRS/Aix-Marseille Université) excluent la possibilité d'une capture, sur la base d'arguments statistiques et en se fondant sur la diversité de composition des astéroïdes. De plus, ils montrent que la signature lumineuse émise par Phobos et Deimos est incompatible avec celle du matériau primordial qui aurait pu former Mars (des météorites de la classe des chondrites ordinaires, des chondrites à enstatite et/ou des angrites). Ils s'attachent donc au scénario de l'impact. Ils déduisent de cette signature lumineuse que les satellites sont composés de poussières fines (de taille inférieure au micromètre3). 

Or, la très petite taille des grains à la surface de Phobos et Deimos ne peut pas être expliquée uniquement comme la conséquence d'une érosion due au bombardement par les poussières interplanétaires, d'après ces chercheurs. Cela signifie que les satellites sont composés dès l'origine de grains très fins, qui ne peuvent se former que par condensation du gaz dans la zone externe du disque de débris (et non à partir du magma présent dans la zone interne). C'est un point sur lequel s'accordent les deux études. Par ailleurs, une formation des lunes de Mars à partir de ces grains très fins pourrait être responsable d'une forte porosité interne, ce qui expliquerait leur densité étonnamment faible. 

La théorie de l'impact géant, corroborée par ces deux études indépendantes, pourrait expliquer pourquoi l'hémisphère nord de Mars a une altitude plus basse que le sud : le bassin boréal est sans doute la trace d'un impact géant, comme celui qui a in fine donné naissance à Phobos et Deimos. Elle permet aussi de comprendre pourquoi Mars a deux satellites et non un seul comme notre Lune, aussi née d'un impact géant. Ce travail suggère que les systèmes de satellites formés dépendent de la vitesse de rotation de la planète, puisqu'à l'époque la Terre tournait très vite sur elle-même (en moins de quatre heures) alors que Mars tournait six fois plus lentement.

De nouvelles observations permettront bientôt d'en savoir plus sur l'âge et la composition des lunes de Mars. En effet, l'agence spatiale japonaise (JAXA) a décidé de lancer en 2022 une mission, baptisée Mars Moons Exploration (MMX), qui rapportera sur Terre en 2027 des échantillons de Phobos. L'analyse de ces échantillons pourra confirmer ou infirmer ce scénario. L'Agence spatiale européenne (ESA), en association avec l'agence spatiale russe (Roscosmos), prévoit une mission similaire en 2024.

Ces recherches ont bénéficié du soutien de l'IPGP, du Labex UnivEarthS, d'ELSI, de l'Université de Kobe, de l'Observatoire royal de Belgique et de l'Idex A*MIDEX.

 

 DOCUMENT         cnrs        LIEN

LA MUSIQUE CONTEMPORAINE

01/08/2016


musique contemporaine

Le mélange des générations

L'expression « musique contemporaine », qui renvoie, littéralement, à la musique savante créée du temps de l'auditeur, a acquis une acception particulière dans la seconde moitié du xxe s. Parfois confondue avec l'« avant-garde », elle n'en concerne pas moins tous les styles et toutes les formes esthétiques, un Xenakis, un Poulenc ou un Chostakovitch composant au même moment tout en suivant des directions souvent opposées, voire contradictoires. En effet, la situation de la musique savante au moment où prend fin la Seconde Guerre mondiale coïncide pour une part avec le passage d'une génération de musiciens à une autre : en consacrant la fin d'une époque, 1945 est aussi la date de la mort de Bartók et de Webern, un an avant celle de Manuel de Falla, alors que Schoenberg et Prokofiev en sont à leurs œuvres ultimes. Parallèlement aux compositeurs retirés de la vie musicale depuis longtemps, tels l'Américain Ives ou le Finlandais Sibelius, qui disparaissent respectivement en 1954 et 1957, les membres du groupe des Six, notamment Arthur Honegger (1892-1955), Darius Milhaud (1892-1974) et Francis Poulenc (1899-1963), poursuivent dans leur voie, alors que la jeune génération les ignore superbement. Ce croisement entre générations ne saurait être mieux illustré que par les Quatre Derniers Lieder avec lesquels Richard Strauss clôt son œuvre en 1948, au moment précis où Pierre Boulez (né en 1925) donne sa 2e Sonate pour piano. Toutefois, des grands créateurs qui ont marqué la première moitié du xxe s. reste surtout Igor Stravinski (1882-1971), qui traverse imperturbablement le siècle sans se soucier des modes et des esthétiques, passant, avec une aisance déconcertante, de l'attitude néomozartienne de son opéra The Rake's Progress (1951) à l'adoption, un peu plus tard, des techniques de la série dodécaphonique des compositeurs viennois.


Relativité de la notion d'école

Face aux bouleversements politiques qui agitent le monde pendant la période de la guerre froide, l'art musical est tantôt contraint de se plier aux impératifs des pouvoirs totalitaires, tantôt amené à fonctionner en autarcie en restant indifférent aux remous provoqués par les différents mouvements esthétiques qui luttent pour imposer leur conception. Alors qu'Igor Stravinski, Béla Bartók (1881-1945) et les compositeurs viennois – à l'exception d'Anton von Webern (1883-1945) – ont travaillé à élargir et à enrichir le contexte tonal hérité du passé, l'action de ces mouvements a principalement porté sur le système harmonique, les éléments morphologiques, au premier plan desquels les formes musicales et la dimension thématique constituent encore un lien avec le passé. Les profondes réformes entreprises par la génération d'après 1945 vont précisément affecter ces derniers paramètres, au point de provoquer avec l'époque précédente une scission d'autant plus forte que les grands noms qui l'illustrent seront souvent rejetés par les jeunes compositeurs qui interviendront au lendemain de la guerre.
La notion d'« école », fréquemment avancée au sujet de la musique de cette époque, demande à être nuancée, sinon révisée : si l'idée de disciples réunis autour d'un maître à penser peut être prise en compte pour l'« école de Vienne » – expression consacrée –, Alban Berg (1885-1935) et Webern n'en ont pas moins trouvé très rapidement leurs style et personnalité, tout en mettant à profit l'enseignement d'Arnold Schoenberg (1874-1951). Plus encore, on ne peut accepter la confusion entre l'appartenance à un groupe identifié et la communauté d'esprit qui rapproche certains compositeurs pendant une période réduite, comme pour ce qu'on a appelé trop rapidement l'« école de Darmstadt », qui ne peut être qualifiée comme telle. La seconde moitié du xxe s. musical n'en est pas moins profondément marquée par les personnalités de cette génération qui ont pour souci essentiel de reconstruire ou de fonder leur œuvre sur de nouvelles bases. C'est principalement en France et en Allemagne que les premiers éléments de ce renouveau font leur apparition dans l'immédiat après-guerre.
Les créateurs français de Messiaen à la musique concrète
Si la période qui va des années 1930 à la fin de la guerre n'a pas favorisé les échanges culturels, et surtout a relégué au second plan les créateurs originaux qui, pour la plupart, ont fui l'Europe, l'émigration qui en est résultée, principalement au profit des États-Unis, n'a pas suscité un renouveau particulier de ce côté-là de l'Atlantique. Plus précisément, ce sont les jeunes compositeurs américains, tels Aaron Copland (1900-1990) ou Elliott Carter (né en 1908), qui sont venus à Paris, pendant l'entre-deux-guerres, chercher un enseignement de qualité, les préparant solidement à leur métier, auprès de Nadia Boulanger (1887-1979), alors fervente admiratrice de Stravinski.


Au lendemain de la guerre, c'est la classe d'Olivier Messiaen (1908-1992), au Conservatoire, qui attire l'attention des jeunes musiciens. En effet, et pendant les quelque trente années de son enseignement, nombre de compositeurs, qui deviendront à leur tour des personnalités essentielles du monde musical, auront fréquenté ses cours. Cependant, la situation de la musique en France, en 1945, n'est guère plus brillante qu'à l'étranger, l'essentiel de l'œuvre de Bartók et de l'école de Vienne n'étant que peu diffusé – pour ne pas dire quasiment inconnu –, et c'est en grande partie à Messiaen que les jeunes musiciens doivent la révélation d'œuvres majeures de la musique de leur temps : Pierre Boulez, de même que Iannis Xenakis (1922-2001), Betsy Jolas (née en 1926), Karlheinz Stockhausen (1928-2007), Jean Barraqué (1928-1973), Gilbert Amy (né en 1936) et bien d'autres profitent de cet enseignement précieux, ainsi que de celui de René Leibowitz (1913-1972), qui contribue à diffuser la pensée de Schoenberg en France. Il est remarquable que Messiaen, alors même qu'il est très engagé dans son esthétique personnelle après les Vingt Regards sur l'Enfant Jésus (1944) ou la Turangalîla-Symphonie (1946-1948), n'influencera jamais ses élèves autrement que par ses conceptions rythmiques inspirées de la prosodie grecque et des traditions de l'Inde. Au-delà de la transmission des notions purement techniques, et de son intense foi catholique qu'il destine plus à la salle de concert qu'au saint lieu, Messiaen joue un rôle déterminant dans le développement de la curiosité de ses élèves, qu'il sait sensibiliser à des musiques de sources et de cultures différentes, notamment les musiques extraeuropéennes – et tout particulièrement les sonorités des gamelans de Bali.

Parallèlement à cet enseignement inscrit dans une tradition, Pierre Schaeffer (1910-1995) diffuse à Radio-Paris, le 20 juin 1948, ses Études de bruits, inaugurant ainsi la musique « concrète » : composée à partir de sons existants, enregistrés puis retravaillés – « Étude aux casseroles », « Étude aux chemins de fer », etc. –, cette musique propose une nouvelle approche de la composition en travaillant directement sur le résultat entendu à partir de la table de mixage. Schaeffer développe ses activités en créant, en 1951, le « Groupe de recherche de musique concrète » (qui deviendra le « Groupe de recherches musicales » en 1957), qu'il dirige avec Pierre Henry (né en 1927), avec lequel il a composé la Symphonie pour un homme seul en 1950. La démarche d'Edgard Varèse (1883-1965) avait largement ouvert la voie à ce rapprochement en tentant de gommer la différence entre les bruits et les sons, au profit d'une musique définie plus largement en termes de « sons organisés ». Très critique à l'égard de l'orchestre traditionnel, « qui ne correspond plus à son époque », Varèse développe l'idée de l'ensemble instrumental composé d'instruments à vent et à percussion. Profitant des perfectionnements des instruments électriques et du magnétophone, il explore la combinaison entre orchestre traditionnel et bande magnétique en faisant alterner l'une et l'autre dans Déserts (1952), qui devient ainsi une œuvre fondatrice de la musique dite « électroacoustique ».


Le parcours consistant à acquérir un solide métier de compositeur auprès de Messiaen, et à explorer le nouvel univers de la musique électroacoustique fait de Paris un centre d'intérêt exceptionnel pour les jeunes musiciens. Là encore, Boulez, Stockhausen, Xenakis et même Messiaen expérimentent, comme beaucoup d'autres le feront après eux, les possibilités offertes par le studio de la Radiodiffusion française.


Les rencontres de Darmstadt
Dès 1946, les Cours d'été créés à Darmstadt par Wolfgang Steinecke (1910-1961) rassemblent des professeurs (Messiaen, Varèse sont parmi les premiers invités) et de jeunes compositeurs qui manifestent fermement leur volonté de repartir sur de nouvelles bases en prônant la « table rase ». Boulez et Stockhausen, auxquels se joignent Bruno Maderna (1920-1973), Luigi Nono (1924-1990) et Luciano Berio (1925-2003), apparaissent comme les chefs de file d'une conception musicale qui se manifeste par son degré d'exigence au service de l'élaboration d'un nouveau langage. Très rapidement, Webern, le troisième compositeur de l'école de Vienne, est élu comme seul modèle, sa musique étant perçue comme débarrassée de toutes les scories de l'univers tonal et surtout aux antipodes des manières néoclassiques qui avaient marqué l'entre-deux-guerres. La série dodécaphonique, que Schoenberg avait inaugurée au début des années 1920, n'est acceptée désormais que sous l'angle wébernien, avec pour conséquence immédiate une accumulation d'imitations serviles du style de ce dernier. On comprend d'autant mieux que cette période soit caractérisée par des oppositions farouches entre les partisans du pointillisme sériel et les compositeurs plus attachés à la tradition : l'article « Schoenberg est mort » – à prendre au sens propre comme au sens figuré – que Boulez écrit en 1951, au moment de la disparition du compositeur viennois, est révélateur de l'état d'esprit de ces jeunes musiciens qui prennent résolument leurs distances avec la plupart de leurs aînés. Seul Claude Debussy (1862-1918), dont l'œuvre atteste une tentative de libération à l'égard des modèles préétablis et des conventions du langage tonal, apparaît comme l'une des autres sources essentielles dans ce réexamen sans concession des acquisitions du passé.
C'est aussi à cette époque que paraît la Philosophie de la nouvelle musique (1949) de Theodor Adorno (1903-1969) – philosophe proche de Max Horkheimer et de l'école de Francfort, et musicien ayant étudié avec Alban Berg –, qui oppose les deux grands courants représentés par Schoenberg et par Stravinski en les analysant respectivement comme les manifestations du progrès et de la restauration. En dépit de la polémique parfois caricaturale du débat très animé entre « modernité » et « néoclassicisme » qui déchaîne alors les passions, Adorno restera l'un des personnages clés par sa réflexion sur la sociologie musicale contemporaine et la relation qu'il établit entre la musique de son temps et la société dans laquelle elle s'inscrit.


La période du sérialisme
Darmstadt apparaît surtout comme le symbole de ce qui deviendra bientôt le « sérialisme généralisé » (l'organisation à partir des douze sons de la série est désormais appliquée aux autres paramètres, par exemple à partir de douze durées, de douze intensités, etc.). C'est une des Quatre Études de rythme pour piano de Messiaen, Mode de valeurs et d'intensités, précisément composée à Darmstadt en 1949, qui est en grande partie à l'origine de cet engouement. En effet, la tendance « sérielle » de cette étude, proposant une dissociation consciente des principaux paramètres, déclenche une vaste réflexion. Les récentes préoccupations visant à forger un nouveau langage destiné à supplanter le précédent donnent ainsi lieu à des œuvres dont les titres révèlent clairement les avancées d'alors, exclusivement centrées sur les conditions du langage : Structures (Boulez), Kontra-Punkte ([« Contrepoints »], Stockhausen), ou Polifonica-monodica-ritmica (Nono), et qui ne seront tempérées que par les Sérénades de Berio et de Maderna.
Cette période de recherche intense, fondée sur un sérialisme le plus souvent rigide, sera en fait de brève durée, et l'assouplissement des techniques permettra bientôt l'émergence, dès le milieu des années 1950, de partitions plus personnelles et plus distanciées par rapport au modèle wébernien (le Marteau sans maître de Boulez, Gruppen de Stockhausen ou Il Canto Sospeso de Nono).
Trop souvent présentée comme le phénomène majeur de la seconde moitié du xxe s., la musique sérielle n'en est qu'une manifestation parmi d'autres et suscite de nombreuses interprétations sous la plume des compositeurs : c'est la force de conviction affichée par ses principaux acteurs et sa revendication à occuper le devant de la scène qui contribueront parfois à la considérer comme un événement dominant.


La génération américaine

En 1949 arrive à Paris un jeune Américain, John Cage (1912-1992), dont Boulez présente aussitôt les Sonates et Interludes (1946-1948) pour « piano préparé » (dans lequel on a inséré des objets – en métal, en bois, en caoutchouc… – entre les cordes), pouvant aller jusqu'à évoquer des sonorités d'instruments extraeuropéens. Dans le sillage de Marcel Duchamp (1887-1968), Cage réfute la notion d'« œuvre », tout autant qu'il refuse le statut de compositeur, et sera l'un des acteurs de l'introduction du hasard en musique avec ses compatriotes Morton Feldman (1926-1987) et Christian Wolff (né en 1934). Autre compositeur de premier plan et particulièrement joué en Europe, Earle Brown (né en 1926), trop souvent rattaché aux idées de Cage, cherche à impliquer l'interprète sans renoncer pour autant à l'œuvre. Féru de jazz et attiré par les arts plastiques (Pollock, Rauschenberg), Brown explore cette marge entre précision et flexibilité qu'il remarque dans les mobiles de Calder, à travers des relations sans cesse changeantes entre des éléments qui, pris isolément, restent fixes.
La rencontre entre cette génération d'Américains qui postulent, à des degrés divers, en faveur de la prétendue « liberté » dans la non-œuvre et celle des Européens adeptes du sérialisme fondé sur une rigueur extrême est à la source des nouvelles orientations qui se feront bientôt jour : bien qu'elles soient aux antipodes l'une de l'autre, ces deux approches se rejoignent dans la recherche d'une forme de contrainte pour parvenir à la liberté, et d'une forme d'assouplissement pour se libérer d'un carcan trop rigide : la convergence des méthodes et la divergence dans l'esthétique compositionnelle se croisent ainsi dans la problématique de la « forme ouverte ».


La musique aléatoire
Considérer les degrés d'introduction du hasard en musique – d'où la notion de musique aléatoire – consiste à examiner les paramètres concernés. La question doit être envisagée tant du point de vue de la composition de l'œuvre que de celui de l'exécution, avec le plus souvent pour conséquence des mutations importantes dans la notation musicale – du solfège traditionnel, mais agencé formellement de façon inhabituelle, à l'utilisation de symboles nouveaux. Le nombre important des attitudes exige que soit précisée cette notion de hasard à laquelle on préférera celle d'« indétermination » concernant l'un des paramètres non fixés, et que l'on répartira ici en trois catégories générales : indétermination du cadre temporel de l'œuvre (le texte musical est écrit, mais flexible à l'intérieur d'une enveloppe de durée dans laquelle le tempo n'est pas strictement déterminé) ; indétermination des hauteurs (le texte est écrit, mais le recours à des symboles qui ne sont pas ceux du solfège introduit une nouvelle flexibilité) ; indétermination de la forme (différents « parcours » – suggérés ou non – autorisent plusieurs déroulements formels).
L'essentiel du débat portant sur la part de l'œuvre soumise à l'indétermination, les orientations qui s'offrent se traduisent par un éventail très large de possibilités, selon la position esthétique du compositeur qui n'entend pas se laisser déposséder de son œuvre – Boulez défend l'idée d'un « hasard dirigé » et Witold Lutoslawski (1913-1994), celle d'un « aléatoire contrôlé » – ou du compositeur qui opte pour l'autre extrême. John Cage, marqué par la philosophie zen dont il a fait son mode de pensée, joue évidemment un grand rôle dans ce contexte, notamment en ayant recours aux tables numériques du Yijing (le Livre des mutations de l'ancienne Chine) pour écrire, en 1951, Music of Changes pour piano et Imaginary Landscape n° 4 pour douze radios (vingt-quatre exécutants plus un chef). Si la première composition, dont la partition est encore notée avec le solfège traditionnel, « libère le temps » de l'œuvre en déterminant le tempo au hasard, la seconde pose le problème différemment, puisque le compositeur est désormais libéré des sons : ici, ce sont les opérations de hasard qui déterminent les volumes sonores, les durées et les fréquences des douze radios.


Musique et littérature
Comme en écho à la célèbre formule mallarméenne qui souhaitait « reprendre à la musique son bien », certains compositeurs en viennent à constater que le renouvellement du langage a été plus considérable dans la littérature de la première moitié du xxe s. que dans la musique. L'intérêt que ces créateurs, principalement les Français, manifestent pour l'œuvre de Mallarmé – dont la conception du Coup de dés ne pouvait qu'attirer l'attention d'un compositeur – et pour celle de James Joyce coïncide avec la double émergence, dans les années 1950, du structuralisme, d'une part, et du « nouveau roman », d'autre part : Claude Lévi-Strauss analyse la situation de la musique atonale dans le Cru et le cuit (1964) et Michel Butor collabore à la composition du Votre Faust (1960-1967) d'Henri Pousseur (né en 1929). Ainsi, on ne s'étonnera pas de voir les œuvres de Proust, des poètes E. E. Cummings et Ezra Pound au centre des préoccupations de nombre de compositeurs, qui trouvent alors dans la littérature l'alternative aux conceptions du hasard proposées par John Cage.


Si Mallarmé influence particulièrement Boulez (3e Sonate pour piano, 1957 ; Pli selon pli, « Portrait de Mallarmé », 1960 ; Éclat-multiple, Explosante-fixe, 1970), Joyce marque profondément de son empreinte la musique de cette époque : des écrits tels qu'Ulysse (1922), qui propose une individualisation et une multiplication des styles et des niveaux de lecture selon les personnages, et Finnegans Wake (1939), qualifié par Joyce lui-même de work in progress (« œuvre en devenir »), amènent certains compositeurs, dont Boulez et Berio en premier lieu, à réfléchir sur les conditions de cette « ouverture » qui se situe à l'encontre de l'œuvre « finie » et figée dans un schéma immuable. Les conséquences sont essentiellement de deux ordres : l'œuvre musicale entend désormais proposer plusieurs niveaux de lecture, et l'interprète se voit chargé d'une responsabilité nouvelle en étant le principal acteur de la forme. Cette notion de « lecture multiple », déjà latente chez l'écrivain Raymond Queneau et étudiée par Umberto Eco dans l'Œuvre ouverte (1962), trouve un écho remarquable dans la musique de Berio, qui fonde le studio de phonologie à Milan, précisément en collaboration avec Maderna, Boucourechliev et Eco. De la Sequenza I pour flûte (1958), où la notation musicale devient proportionnelle, à Epifanie pour voix et orchestre (1961), sur des textes de Proust, Joyce, Machado, Brecht et Claude Simon, Berio explore les niveaux multiples de la perception et de la compréhension d'un texte musical. Dans le même esprit, André Boucourechliev (1925-1997) parvient, avec ses Archipels (1967-1972), chef-d'œuvre de la musique aléatoire, à renouveler la notion de partition – sur laquelle sont notés plus des « matériaux à réaliser » qu'un véritable texte fini – et prolonge les recherches de Brown en inscrivant l'interprète dans l'œuvre même.


La diffusion de la musique contemporaine

Bien que l'Europe occidentale ait su rétablir les réseaux de la musique, en particulier entre Paris et Darmstadt, un certain nombre de compositeurs vivaient encore de façon isolée dans des pays où les options politiques prenaient le pas sur la liberté d'expression. Lorsque, à la faveur des événements de 1956 en Hongrie, György Ligeti (né en 1923) rejoint l'Autriche, il découvre brutalement un pan essentiel de la musique des dix années précédentes. Il s'agit là d'un exemple parmi d'autres, la situation en U.R.S.S. favorisant le même isolement des artistes, qui se devaient de répondre aux exigences du pouvoir en matière d'art, fixées par les directives du réalisme socialiste (rédigées par Jdanov en 1948).
C'est dans ce contexte que Paris affirme son rôle prépondérant, voire centralisateur, dans la création contemporaine, lorsque Boulez fonde en 1954, grâce à des fonds privés, les concerts du Domaine musical, dont les programmes couvriront une part importante de la production de cette époque. Comme pour répondre à Schoenberg, qui laisse entendre que la musique qu'il crée n'est pas « moderne », mais « mal jouée », Boulez travaille sur la qualité des exécutions, cherchant à établir des liens entre le passé et la musique du présent. En programmant de façon originale des œuvres des xviie et xviiie s., voire du Moyen Âge, et des partitions contemporaines, il tente de mettre en relation des conceptions comparables dans des langages différents. Pour en finir avec le divorce – dont l'origine date en réalité du siècle précédent – entre la musique contemporaine et le public, il faut en passer par un effort de communication sociale, qui se traduit notamment par la multiplication des écrits, en forme le plus souvent de justification, des musiciens. Il n'en reste pas moins que le Domaine musical, par son rôle de rassembleur de l'avant-garde, draine, jusqu'en 1973, un nombre important de compositeurs qui répondent aux critères de la nouvelle génération européenne.


La musique électronique
De même, et parallèlement à l'esthétique sérielle alors prédominante, apparaissent les studios de musique électronique, qui tirent parti des progrès de la technologie, et, grâce aux perfectionnements rapides dont bénéficie le magnétophone, le premier studio de musique électronique est fondé à la radio de Cologne en 1951 et placé sous la direction de Herbert Eimert (1897-1972). Dans ce studio, où Stockhausen travaillera de nombreuses années (Gesang der Jünglinge), comme dans ceux de New York, Londres et Paris, de nouvelles approches induisent une autre conception de la perception. Les fortes réactions à la musique sérielle passent en particulier par la critique de Iannis Xenakis, qui, dès 1955, souligne la contradiction qui existe entre le pointillisme éclaté et la perception, entre « le système polyphonique linéaire et le résultat entendu qui est surface, masse ». Postuler ainsi en faveur d'une perception globale et non plus individuelle conduit Xenakis à favoriser la continuité entre les sons dans Metastasis pour un orchestre de 61 instruments (1953-1954) et Pithoprakta (1955-1956), où les longs glissandos des quarante-six cordes effacent le sentiment de totale dispersion sonore. Architecte de formation, Xenakis sera notamment l'assistant de Le Corbusier pour l'élaboration du pavillon Philips à l'Exposition universelle de Bruxelles en 1958 – pour lequel Varèse composera son Poème électronique pour bande magnétique – et prendra en compte les phénomènes de spatialisation dans sa musique (musiciens disposés en cercle autour du public dans Persephassa, pour 6 percussionnistes, 1969).
L'expérience électronique, en termes de gestion des masses impliquant une perception globale des phénomènes, trouve surtout une application chez Ligeti, qui, après avoir exploré les techniques en ce domaine, travaille au déplacement des masses dans Atmosphères (grand orchestre, 1961). À la même époque, la jeune génération polonaise, dont Krzysztof Penderecki (né en 1933) apparaît alors comme l'une des personnalités prééminentes, accentue cette recherche de perception globale en choisissant de privilégier la profusion de sons (les « clusters ») et en adaptant la notation musicale, qui devient à son tour plus globale (Thrène à la mémoire des victimes d'Hiroshima, 1960).
Ainsi, le sérialisme, qui ambitionnait d'élaborer un nouveau langage à dimension internationale, connaît un premier démenti sévère, d'autant plus que l'électronique oriente, dans un second temps, les préoccupations vers l'exploration intérieure du son : certains compositeurs proposent désormais des œuvres limitées sur un matériau très réduit, voire un son, tel Giacinto Scelsi (1905-1988) dans ses Quatre Pièces sur une seule note pour orchestre (1959), ou travaillent sur la lente élaboration à partir d'un son progressivement enrichi, tel Ligeti avec Lux aeterna, pour 16 voix (1966).
Les « indépendants »

Il serait caricatural de réduire la production musicale de cette époque à ce débat entre perception « individualisée » et perception « globalisée », tant il concerne principalement les avant-gardes. Nombre de compositeurs restent en effet à l'écart de ce contexte, et souhaitent garder leur indépendance, soit qu'ils manifestent un fort attachement à la tradition, soit que leurs recherches aient été ignorées par les mouvements esthétiques dominants : André Jolivet (1905-1974), marqué à ses débuts par Varèse, Maurice Ohana (1914-1992), proche par ses origines de la culture espagnole, et autant séduit par le jazz qu'intéressé par l'écriture en micro-intervalles en tiers de tons, ou encore Henri Dutilleux (né en 1916), dont l'œuvre orchestrale reste l'une des plus remarquables de cette époque (Métaboles, 1964 ; Tout un monde lointain, concerto pour violoncelle, 1970), sont parmi les compositeurs qui subissent le contrecoup de la politique de l'avant-garde. De même, à l'étranger, le Suisse Frank Martin (1890-1974), l'Américain Aaron Copland ou les Britanniques Michael Tippett (1905-1998) et Benjamin Britten (1913-1976) poursuivent en marge leur œuvre dérivée de l'univers tonal, parallèlement aux bouleversements qui agitent la musique savante contemporaine.
C'est pourtant aux États-Unis qu'apparaît un mouvement qui se répandra rapidement et qui prône une autre approche de la perception fondée sur la répétitivité. Les musiques répétitives développées par Terry Riley (né en 1935), La Monte Young (né en 1935), Steve Reich (né en 1936) et Philip Glass (né en 1937) sont moins conçues sur la qualité même des éléments musicaux que sur leur répartition dans la durée. L'œuvre de ces musiciens, qui est plus diversifiée que l'appellation générique pourrait le laisser croire, va marquer certains courants en Europe, et la musique, souvent subtile, d'un Reich est parfois à rapprocher de celle de compositeurs attachés à la notion d'écriture et apparemment très éloignés de cette attitude.


Le théâtre musical
En cette période où se multiplient les anathèmes contre les genres consacrés – notamment l'opéra, déclaré « mort » –, le théâtre musical tantôt est l'objet d'expériences de renouvellement, comme celles de Bernd Alois Zimmermann (1918-1970) dans son opéra Die Soldaten (1958-1960, créé en 1965) – où les dimensions du passé, du présent et du futur sont présentées simultanément –, tantôt s'inspire des happenings qui marquent les arts en général : après les « anthropométries » du peintre Yves Klein en 1960 – des femmes nues enduites de peinture bleue appliquent leurs corps sur la toile –, les œuvres de théâtre musical cèdent à divers degrés à la provocation en mettant en scène les dimensions sociales. Berio introduit un chœur dispersé dans le public dont la fonction est d'interpeller la chanteuse sur scène (Passagio, 1962), Ligeti prend le parti de l'ironie (Aventures, 1962-1963) et Peter Maxwell Davies (né en 1934), celui de l'absurde (Huit Chants pour un roi fou, 1969), alors que l'Argentin Mauricio Kagel (1931-2008) interprète de façon critique la situation du concert et de l'opéra (Staatstheater, « anti-opéra », 1967-1970). Ce n'est que dans les années 1970 que se produisent des tentatives de réactualisation de l'opéra, avec le Grand Macabre de Ligeti (1974-1977) ou les œuvres de Berio composées en collaboration avec Italo Calvino (La Vera Storia, 1977-1978 ; Un re in ascolto, 1979-1984).


Le tournant de la fin des années 1960
Symboliquement, 1968 consacre la crise de la société que la musique illustre aussi à sa manière. Après la faillite du sérialisme et l'épuisement des solutions expérimentales, la crise de la communication sociale entre les compositeurs et le public passe par la réintégration de l'histoire, qui avait été brutalement évacuée vingt ans plus tôt au nom de la table rase. Cette réconciliation avec le passé revêt différents aspects sous forme de « relectures », dont l'un des premiers exemples est offert par Berio dans ses Folk Songs fondés sur d'authentiques chants populaires (1964). La dimension thématique, qui avait été gommée au profit de la réflexion sur le langage, permet ainsi cette réconciliation dans des œuvres aussi représentatives que Musiques pour les soupers du roi Ubu (1967) de Zimmermann, la Sinfonia (1968) de Berio – dont un mouvement est basé sur la musique de Mahler à laquelle sont intégrés nombre de fragments d'autres auteurs –, ou Ombres (1970), pour onze instruments à cordes, de Boucourechliev, « en hommage à Beethoven ». Une seconde attitude, plus dégagée des références précises au répertoire du passé, est dictée par les emprunts stylistiques à d'autres cultures : on la trouve chez Messiaen, marqué par le Japon dans les Sept Haï-Kaï (ou Esquisses japonaises, 1962), chez Kagel dans ses Musiques pour instruments de la Renaissance (1965), chez Stockhausen dans Hymnen (1966-1967) pour bande magnétique d'après des hymnes nationaux mixés et travaillés, ou encore chez le Japonais Takemitsu Toru (1930-1996), qui propose le croisement entre l'Orient et l'Occident dans November Steps II (1967) pour biwa et shakuhachi – deux instruments traditionnels – et orchestre symphonique. Plus généralement, l'attrait pour l'Orient qui s'exerce sur la jeune génération à cette époque n'épargne pas certains compositeurs qui s'engagent dans les musiques « méditatives » (Stimmung de Stockhausen, 1968) ou qui succombent aux vertus redécouvertes de l'improvisation, favorisant parfois un rapprochement avec le free jazz.


Des voies de recherche sans cesse renouvelées
À cette période de crise qui a conduit à une réévaluation complète de la production musicale de deux décennies correspondent, d'une part, l'émergence de nouvelles institutions qui entendent traiter la relation entre la musique et les autres domaines culturels et scientifiques et, d'autre part, l'arrivée d'une nouvelle génération critique à l'égard de ses aînés. Parallèlement à la création à Paris du Centre national d'art et de culture, à l'initiative du président Georges Pompidou, qui voulait doter la France d'une grande institution d'art contemporain, Pierre Boulez, qui poursuit sa carrière de chef d'orchestre, est rappelé en France, après son exil volontaire de plusieurs années, pour prendre en charge l'I.R.C.A.M. (Institut de recherche et de coordination acoustique-musique) à partir de 1974. Deux ans plus tard est fondé l'Ensemble InterContemporain, dont la mission est de jouer la musique de notre temps dans les meilleures conditions et en relation avec les technologies informatiques mises au point à l'I.R.C.A.M. L'un des événements majeurs de cette collaboration technique, scientifique et musicale sera Répons (1981-1988) de Boulez, qui utilise l'ordinateur pour la spatialisation et les transformations de la musique jouée par l'ensemble instrumental disposé au centre de la salle.


Les dernières années de l'enseignement de Messiaen au Conservatoire sont marquées par la présence de jeunes compositeurs qui, hostiles au sérialisme, entendent fonder leur approche compositionnelle sur le son lui-même, en se réclamant de Varèse, de Scelsi ou de Ligeti. La « musique spectrale » d'Hugues Dufourt (né en 1943), de Gérard Grisey (1946-1998), de Tristan Murail (né en 1947) ou de Michaël Lévinas (né en 1949) traduit la volonté de ces compositeurs de placer la perception du son au premier plan de leurs préoccupations, l'analyse du son fournissant les conditions mêmes du déroulement temporel de l'œuvre (les Espaces acoustiques de Grisey, 1974-1985).
Le sérialisme n'en trouve pas moins un second souffle à travers les conceptions de Brian Ferneyhough (né en 1943), qui cultive une forme particulière de complexité à partir de ses Sonatas pour quatuor à cordes (1967), et surtout dans les années 1980, où l'on observe des tentatives de croisement entre ces techniques d'écriture réactualisées et des approches influencées par la musique spectrale. L'œuvre de la jeune génération – représentée par l'Allemand Wolfgang Rihm (né en 1952), qui renoue avec une forme d'expressionnisme personnalisé, le Français Pascal Dusapin (né en 1955), explorant un nouveau théâtre musical, ou le Finlandais Magnus Lindberg (né en 1958), à la croisée des chemins – révèle un éclectisme qui est le résultat d'une recherche située délibérément hors des débats qui ont agité l'art musical pendant près d'un demi-siècle. Mais le véritable renouvellement semble venir de l'épuration sonore pratiquée par Nono dans ses dernières œuvres, où le son devient intense dans un discours traversé par un silence habité (Fragmente Stille an Diotima, pour quatuor à cordes, 1979-1980), ou par le Hongrois György Kurtág (né en 1926), qui, nourri de Schumann et de Webern, produit une musique exigeante et séduisante d'où l'anecdote est irrémédiablement évacuée (Stele pour orchestre, 1994).


Émancipation à l'Est et postmodernisme
Tout aussi symboliquement, vingt ans après les événements de 1968, les mutations politiques de l'Europe de l'Est vont bouleverser le paysage musical dans la mesure où l'Occident découvre, le plus souvent avec un décalage important, des compositeurs dont l'œuvre était restée méconnue. Il est vrai que, dès le début des années 1980, des musiciens soviétiques comme Edison Vassilievitch Denisov (1929-1996), Sofia Goubaïdoulina (née en 1931) et Alfred Schnittke (1934-1998) ont pu rejoindre l'Europe de l'Ouest. Schnittke apparaît rapidement comme le compositeur le plus remarquable de cette génération, sachant réactualiser avec talent des genres consacrés (symphonie, concerto, opéra). Par ailleurs, l'affirmation nationale qui s'exprime dans les Républiques nouvellement indépendantes permet notamment la diffusion des musiques en provenance d'Estonie, qui trouvent leur origine dans la tradition vocale des siècles passés et exploitent une forme de musique répétitive – à ne pas confondre avec les tentatives américaines, tant cette dimension est présente dans les sources de la musique populaire estonienne. Apôtre de la simplicité et d'un dépouillement au mysticisme avoué, Arvo Pärt (né en 1935) est bientôt reconnu comme le personnage central de cette esthétique. Par le « minimalisme » ambiant qui marque le style tardif du Polonais Henryk Górecki (né en 1933) ou du Britannique John Tavener (né en 1944), ou encore par la filiation « néotonale » de l'Américain John Adams (né en 1947), on constate combien ces compositeurs se réjouissent de rétablir un lien avec un public dont la soif de nostalgie n'est qu'une des manifestations de cet éclatement généralisé des années 1990.
La fin du xxe s. restera donc marquée par le cheminement parallèle d'esthétiques très différentes : les diverses conceptions d'écriture, l'intervention de l'ordinateur dans le travail du compositeur, les préoccupations fondées sur l'analyse du spectre sonore voisinent avec les formes du postmodernisme qui affecte une part de la production musicale. L'idée même de postmodernisme, qui sous-entend la capacité à prendre en considération les références du passé pour les injecter dans l'œuvre, est présente à toutes les époques, et un mouvement comme celui de la « Nouvelle Simplicité » apparu en Allemagne à la fin des années 1970, proclamant le retour nécessaire au système tonal, n'est qu'un exemple parmi d'autres de ces allers et retours de l'histoire sur elle-même. (¿ dodécaphonisme ; ¿ opéra contemporain.)

 

 DOCUMENT   larousse.fr    LIEN

L'INNÉ ET L'ACQUIS DANS LA STRUCTURE DU CERVEAU

23/07/2016

L'inné et l'acquis dans la structure du cerveau
Jean-Pierre Changeux dans mensuel 331 


Nous sommes génétiquement programmés pour apprendre, c'est-à-dire pour échapper à un strict déterminisme génétique. Mais jusqu'à quel point pouvons-nous nous adapter ? Quelles sont les limites du cerveau humain et peut-on les modifier ?
Quelle part de notre comportement, de nos actes, de nos idées, de notre conscience est déterminée par le contenu chromosomique de l'oeuf fécondé dont nous sommes issus - en un mot, est innée ? Quelle part au contraire est acquise lors de l'interaction de l'individu avec son environnement immédiat : physique, social ou culturel ? Cette question a donné lieu au cours de l'histoire à des prises de position passionnées où les idées préconçues d'inspiration morale, religieuse ou philosophique l'emportaient souvent sur la stricte objectivité scientifique1.

Mon propos n'est pas de trancher ce débat, mais plutôt d'essayer de définir les limites dans lesquelles il doit être tenu. Pour ce faire, je rapporterai quelques observations récentes d'anatomistes, psychobiologistes, généticiens ou neurobiologistes qui s'intéressent à la morphogenèse fonctionnelle du système nerveux central des vertébrés supérieurs. Je ne ferai qu'occasionnellement référence à l'espèce humaine, me limitant aux problèmes déjà fort complexes posés par l'organisation cérébrale de petits mammifères comme la souris. Le lecteur sera évidemment tenté d'extrapoler à l'homme les résultats obtenus chez l'animal. Cette démarche est souvent légitime mais, en certains cas, une extrapolation hâtive risque de mener à des simplifications abusives masquant un problème fondamental plus complexe. Rappelons toutefois, comme l'écrivait Buffon : « S 'il n'existait pas d'animaux, la nature de l'homme serait encore plus incompréhensible » .

Avant d'en venir à la description des faits d'actualité, il n'est pas inutile d'évoquer le point de vue d'un grand naturaliste du siècle « philosophique », Jean-Baptiste de Lamarck. Dans le second tome de sa Philosophie zoologique 1809, tome consacré presque exclusivement à des questions de neurobiologie et de psychologie, il tente une première conciliation rationnelle entre les données scientifiques et les idées philosophiques de son époque. Il écrit : « Il appartient principalement au zoologiste qui s'est appliqué à l'étude des phénomènes organiques de rechercher ce que sont les idées, comment elles se produisent, comment elles se conservent. [...]

Je suis persuadé que tous les actes d'intelligence sont des phénomènes naturels et, par conséquent, que ces actes prennent leur source dans des causes uniquement physiques. [...] On ne saurait douter maintenant que les actes d'intelligence ne soient uniquement des faits d'organisation, puisque, dans l'homme même, qui tient de si près aux animaux par la sienne, il est reconnu que des dérangements dans les organes qui produisent ces actes en entraînent dans la production des actes dont il s'agit, et dans la nature même de leurs résultats . » Ces faits d'organisation, Lamarck ne les conçoit pas de façon statique. Introduisant une distinction capitale, il ajoute en effet : « On peut, sans doute, apporter en naissant les dispositions particulières pour des penchants que les parents transmettent par l'organisation mais, certes, si l'on n'eût pas exercé fortement et habituellement les facultés que ces dispositions favorisent, l'organe particulier qui en exécute les actes ne se serait pas développé. »

Depuis le début du XIXe siècle, d'immenses progrès ont été accomplis dans une discipline dont le fondateur de la « biologie » avait saisi la richesse ; mais, aujourd'hui encore, ces vues de Lamarck sont vivantes par leur lucidité presque prophétique. On sait maintenant que l'« organisation » dont parle Lamarck est constituée par un ensemble complexe de milliards de cellules nerveuses, ou neurones, en contact les unes avec les autres par leurs prolongements axoniques ou dendritiques. Comme l'exprime avec beaucoup d'exactitude J.Z. Young dans son livre A M odel of the ß/IIßrain : « Le cerveau constitue une sorte d'ordinateur qui donne des ordres qui sont eux-mêmes traduits en actes et permettent à l'organisme de survivre, comme un "homéostat", dans un environnement particulier. Cet ordinateur est de type analogique, et non pas digital, en ce sens qu'il est lui-même une représentation physique du monde extérieur perçu par les organes des sens. [...] La machine analogique du cerveau est présélectionnée pour effectuer des opérations avec l'environnement de l'organisme [...] . Sa construction s'effectue en partie ou largement par l'hérédité, mais l'apprentissage peut influencer cette construction. Le cerveau est donc un ordinateur capable de s'automodifier 2 . »

A l'exception d'une mince frange structurale constituée par les arborisations terminales de certains neurones corticaux, la mise en place de l'organisation cérébrale résulte de l'expression séquentielle, de l'oeuf à l'adulte, d'un programme génétique parfaitement déterminé. Il est clair que, dans un certain nombre de cas bien établis, une interaction avec l'environnement est nécessaire au déroulement de ce programme, mais il est non moins clair que ce programme a été sélectionné compte tenu de cette interaction.

Certains comportements élémentaires sont programmés dès l'oeuf et feront l'objet d'un « exercice fonctionnel » qui les stabilisera ; mais ils n'ont pas à être appris. Ils sont innés ou instinctifs. C'est le cas de la construction du nid chez les oiseaux, du comportement sexuel, de certaines formes d'agressivité, etc.3. Nous avons même vu que l'aptitude à apprendre est, chez la souris, conditionnée par des facteurs héréditaires. Placées dans le même environnement, les souris nées « intelligentes » apprendront plus vite que celles nées moins intelligentes.

Toutefois, on ne saurait trop insister sur le fait que, si la capacité à apprendre est génétiquement programmée, les « réussites » de l'apprentissage ne s'inscrivent pas immédiatement dans le programme de leurs auteurs. En aucun cas, ce qui a été appris chez l'adulte n'est transmissible directement par l'hérédité. On trouvera une excellente discussion de ce problème par A. Weismann dans ses Réflexions sur la musique chez les animaux et chez l'homme 4 . En revanche, la réussite de l'apprentissage peut indirectement , par le jeu des mutations et de la sélection, entraîner une modification du programme génétique. Par exemple, la capacité d'apprentissage présente une valeur sélective considérable pour l'animal qui la possède : dans une population hétérogène de souris, les mutants capables d'apprendre à fuir plus vite que leurs congénères ont plus de chances d'échapper à leurs prédateurs, et donc de survivre. « Il n'y a aucune difficulté à admettre , écrit Darwin dans l' Evolution des espèces , que la sélection naturelle puisse conserver et accumuler constamment les variations de l'instinct aussi longtemps qu'elles sont profitables aux individus . »

Cet élargissement, par mutations, de la capacité d'apprendre se poursuit jusqu'à l'homme. « L'adaptabilité "infinie" du cerveau de l'homme lui confère une valeur sélective exceptionnelle » , écrit Haeckel dans son Histoire de la création naturelle . Cette adaptation s'effectue, comme le souligne J.Z. Young, beaucoup plus rapidement que par l'entremise du système génétique. Ce qui semble donc très caractéristique des vertébrés supérieurs, c'est précisément la propriété d'échapper au déterminisme génétique absolu menant aux comportements stéréotypés du type de ceux décrits par l'excellent zoologue K. Lorenz3 ; c'est la propriété de posséder à la naissance certaines structures cérébrales non déterminées qui, par la suite, sont spécifiées par une rencontre le plus souvent imposée, parfois fortuite, avec l'environnement physique, social ou culturel. Mais, comme le suggèrent les expériences chez les souris, cette adaptabilité n'est pas « infinie », même chez l'homme, contrairement à ce qu'écrit Haeckel. Les limites de cette adaptabilité phénotypique sont, je l'ai déjà dit, déterminées génétiquement.

La nature des modifications biochimiques associées avec le comportement d'apprentissage est encore fort mal connue. J'ai signalé l'accroissement des épines dendritiques chez le jeune rat soumis à un environnement « riche ». Mais on ne sait pratiquement rien des mécanismes intervenant chez l'adulte lors d'un apprentissage particulier. Il n'est même pas certain qu'un accroissement du nombre de synapses soit nécessaire. La modification de synapses existantes pourrait suffire, et il a été suggéré que les modifications de ce genre seraient très discrètes : des changements conformationnels au niveau de membranes synaptiques, par exemple5.

Une des manières d'accroître l'interaction structurante avec l'environnement afin de spécifier des synapses non déterminées est, nous l'avons vu, de prolonger la maturation du cerveau après la naissance. Une autre est le maintien chez l'adulte d'une plasticité fonctionnelle permettant l'adaptation d'une structure donnée à une fonction différente mais en général voisine de celle pour laquelle elle a été programmée génétiquement, donc sélectionnée, au cours de l'évolution. Il se produirait en quelque sorte un « transfert » de fonction : les résultats spectaculaires des « rééducations » obtenues après des lésions graves du système nerveux ou des organes des sens montrent que cette plasticité du cerveau de l'adulte est réelle, bien qu'elle soit limitée et inférieure à celle du sujet jeune.

Cette capacité à apprendre, cette plasticité fonctionnelle confèrent à l'homme sa valeur sélective exceptionnelle. Elles lui permettent de tirer profit, en s'y adaptant très rapidement, de l'environnement culturel et social qui de son côté évolue et progresse avec une vitesse beaucoup plus grande que ses structures génétiques. Il est alors légitime de se demander si, compte tenu de ce progrès accéléré, les limites de l'adaptabilité du cerveau humain fixées par l'hérédité ne se révéleront pas dans quelques années insuffisantes. En fait, il n'est pas impensable que l'homme lui-même compense cette dysharmonie et « élargisse » artificiellement ces limites : par exemple, en enrichissant l'environnement de l'enfant ou en contrôlant l'expression des gènes, peut-être au niveau de certains relais hormonaux. On sait déjà l'importance des hormones sexuelles6 ou thyroïdiennes7 dans l'établissement de certains comportements et dans la différenciation d'importantes structures cérébrales. Pourquoi ne pas imaginer qu'à l'aide d'effecteurs chimiques bien choisis et d'un environnement adéquat on obtienne prochainement ne serait-ce qu'un doublement du nombre des épines dendritiques du cortex de l'homme ?
1 Le film de François Truffaut, L'Enfant sauvage , pose le problème avec acuité. Voir le livre de L. Masson, Les E nfants sauvages , 10/18.

2 J.Z. Young, A M odel of the ß/IIßrain , Oxford University Press, 1964.

3 K. Lorenz, L' A gression , Flammarion, 1969.

4 A. Weismann, Essais sur l'hérédité et la sélection naturelle , Paris, 1968.

5 J.-P. Changeux et J. Thiéry, in « Regulatory functions of biological membranes », Jarnefelt éd., 1968.

6 S. Levine et R. Mullins, Science , 1585 , 1966.

7 J. Legrand, Arch. Anat. Micr ., 56 , 205, 1967.
SOMMES-NOUS PILOTÉS PAR NOS GÈNES ?
Septembre 1999. Des chercheurs de l'université de Princeton créent des souris génétiquement modifiées « plus intelligentes » : possédant davantage de récepteurs d'un type particulier, elles dépassent leurs congénères dans la plupart des tests d'apprentissage... Trente ans plus tôt, J.-P. Changeux craignait que l'espèce humaine ne butte rapidement sur les limites héréditaires de l'adaptabilité de son cerveau et proposait l'utilisation d' « effecteurs chimiques bien choisis » pour franchir ces frontières biologiques. Son projet serait-il devenu réalisable ? Les progrès de la biologie permettraient-ils d'envisager un « dopage génétique » ? Entre-temps, le neurobiologiste est devenu président du Comité consultatif national d'éthique, et ne poserait probablement pas le problème dans les mêmes termes... Quant au débat entre inné et acquis, malgré des développements considérables, la génétique moderne n'est pas parvenue à clarifier une discussion toujours passionnée. O.B.
SAVOIR
A lire :

-Ramón y Cajal, Histologie du système nerveux de l'homme et des vertébrés, Madrid, 1909.

-J.-P. Changeux, L'Homme neuronal, Fayard, 1983.

 

 DOCUMENT       larecherche.fr       LIEN

Une protéine à l'origine des synapses

14/07/2016

Une protéine à l'origine des synapses ?


Louise Blottière dans mensuel 358 
Fruit d'une recherche systématique couronnée d'un brin de chance, une pro- téine récemment découverte pourrait apporter un éclairage décisif sur la façon dont se forment les synapses.
A quoi serviraient les neurones si les synapses n'existaient pas ? A rien ! La synapse, c'est cette zone de contact, spécialisée dans la transmission du message nerveux, qu'instaurent les neurones entre eux ou avec les cellules musculaires. Sans elle, aucune information sensorielle, aucun ordre moteur ne pourraient être transmis. C'est peu dire que nombre d'équipes travaillent à élucider non seulement son fonctionnement, mais aussi la façon dont cette synapse se forme. Thomas Südhof et son équipe du Howard Hughes Medical Institute, à Dallas au Texas, viennent d'ajouter un élément peut-être décisif à ce second versant du dossier synapse : une protéine nommée SynCAM [1].

Tout commence il y a dix ans. En 1992, Thomas Südhof identifie une famille de protéines neuro- nales, les neurexines, qui vont constituer l'un des axes de recherche principaux de son laboratoire [2]. Au fil des ans, il apparaît que ces molécules sont impliquées dans le mécanisme d'adhésion qui prévaut au niveau des synapses. Elles interviennent aussi dans le fonctionnement de ces dernières, mais pas dans leur formation à proprement parler. En revanche, d'autres équipes travaillant avec des invertébrés - l'inévitable mouche drosophile mais aussi un petit mollusque, l'aplysie - mettent en évidence deux protéines impliquées dans la formation et le maintien des synapses. Des protéines dont la partie extracellu- laire présente une structure extrêmement caractéristique. Du coup, Thomas Südhof et ses collaborateurs parient sur la conservation, au cours de l'évolution, de la structure en question. Ils entreprennent alors sa recherche systématique chez les protéines de vertébrés, sans pour autant délaisser les neurexines. Leur deuxième critère de recherche impose de ne retenir que les protéines dont l'extrémité intracellulaire serait, du fait de sa structure, susceptible d'agir comme celle des neurexines. Et c'est suivant ces deux critères qu'en parcourant les banques de données des protéines de vertébrés, les chercheurs repèrent SynCAM. « Comme souvent, la chance a joué, s'excuse presque Thomas Südhof. Quand nous avons identifié SynCAM, puis réalisé que son extrémité intracellulaire était homologue de celle des neurexines, nous avons été intrigués et avons commencé à la tester. » D'abord chez l'animal - le rat en l'occurrence -, puis plus finement sur des cellules en culture. Résultat : indétectable chez le rat nouveau-né, SynCAM est progressivement exprimée au cours des trois semaines suivant la naissance. Un premier résultat encourageant, puisque c'est précisément durant ce laps de temps que se forment les synapses chez les rongeurs. De plus, elle est bien localisée au niveau de ces dernières - et des deux côtés, dans chacun des deux neurones impliqués. Enfin, comme l'ont démontré les chercheurs en augmentant ou diminuant la quantité de SynCAM dans des neurones en culture, elle joue visiblement un rôle fonctionnel dans la formation des synapses. C'est là sa particularité par rapport aux deux autres systèmes synaptiques d'adhésion connus. Sans oublier ce que Thomas Südhof qualifie de vraiment surprenant : une cellule « banale », absolument pas neuronale, peut établir une synapse avec un neurone voisin quand on la manipule de façon qu'elle exprime SynCAM. Une synapse qui plus est fonctionnelle !

Certes, « il s'avérera peut-être que SynCAM n'est pas "universelle", mais spécifique d'un seul type de synapse », commente Geneviève Rougon, directrice du Laboratoire de neurogenèse et morphogenèse dans le développement et chez l'adulte, à Marseille. Mais quoi qu'il en soit, « ces travaux constituent une étape cruciale dans l'élucidation du processus de formation des synapses, et peut-être aussi, plus largement, pour la compréhension de la plasticité neuronale », estime-t-elle.
[1] T. Biederer et al., Science, 297, 1525, 2002.

[2] Y.A. Ushkaryov et al., Science, 257, 50, 1992.

 

 DOCUMENT       larecherche.fr       LIEN

Amarna la cité perdue d’Akhénaton en 3D

13/07/2016

Amarna : la cité perdue d’Akhénaton en 3D
Bernadette Arnaud
Voir tous ses articles
Publié le 19-04-2016 à 17h02

L'imagerie en relief pour mieux comprendre une révolution religieuse dans l’Egypte antique ? C’est le pari réussi du Laboratoire Archéovision avec Amarna 3D

EXPOSITION. Les technologies de la 3D, utilisées pour mieux comprendre une révolution religieuse dans l’Egypte antique ? C’est le pari réussi du laboratoire Archéovision avec Amarna 3D, la cité bâtie par le célèbre pharaon Akhénaton. Une exposition visible jusqu’au 29 avril 2016, dans le hall du Conseil régional d’Aquitaine, à Bordeaux. Amenhotep IV, pharaon du Nouvel Empire plus connu sous le nom d’Akhénaton, est célèbre pour le cataclysme qu’il a provoqué en Egypte en imposant le culte unique d’Aton, le disque solaire, en place de celui d’Amon. En l’an 5 de son règne, il fit alors bâtir une nouvelle cité à Tell el-Amarna, en plein désert, à 300 km de la capitale thébaine. Mais dix ans à peine après leur création, à la mort du souverain, temples, palais et bâtiments administratifs sortis du sable furent totalement abandonnés. Seules quelques pierres subsistèrent, sans que les chercheurs en comprennent réellement l’agencement et la forme.

C’est désormais chose faite grâce au laboratoire Archéovision, une unité CNRS adossée aux universités de Bordeaux et Bordeaux Montaigne. « L’idée est de faire comprendre au public, grâce à la technologie 3D, ce qu’a été la genèse du profond bouleversement qu’a connu la société égyptienne sous le règne de ce pharaon monothéiste », explique Robert Vergnieux, ancien directeur du laboratoire Archéovision.

En travaillant entre le site de Karnak – où résidait initialement le souverain (voir photo ci-contre) - et celui d’Amarna, les égyptologues ont ainsi pu comprendre les nouvelles «normes architecturales » que celui-ci a imposées aux bâtiments de sa nouvelle capitale. C’est donc à la reconstitution d’un véritable puzzle que les chercheurs d’Archéovision se sont livrés à partir de données accumulées au cours des fouilles archéologiques menées depuis la fin du 19e siècle. « La ville d’Amarna n’a pas été réoccupée après sa destruction, et malgré son démontage, et la démolition de ses murs de calcaire par les chaufourniers venus faire de la chaux dès l’Antiquité, le plan complet d’Amarna est toujours visible au sol sur Google Earth ! », explique Robert Vergnieux.

Les archéologues disposaient ainsi des fondations des édifices, de l’organisation spatiale de la cité et de ses limites ainsi que de certaines représentations architecturales retrouvées reproduites sur les parois des tombes royales qui y avaient été creusées. Ces informations ont été complétées par les innombrables scènes et décors ornant les murs de grès des temples de Karnak.

Résultat : une vidéo permettant aux spectateurs contemporains de cheminer entre temples et jardins. « Toutes les nouveautés d’Amarna ont été pensées à Karnak, là où Akhenaton a modifié l’équilibre de la société égyptienne avec un nouveau dispositif dans sa relation au divin», poursuit l’égyptologue. Ainsi, par exemple, les temples d’Amarna n’avaient pas de toit pour être directement inondés par les rayons divins d’Aton et faciliter ainsi le dialogue avec le disque solaire. A la mort d’Akhénaton, son fils Toutankhamon devenu roi, abandonnera la cité de son père pour revenir à Thèbes, l’ancienne capitale.

DOCUMENT sciencesetavenir.fr LIEN

NOTRE CERVEAU ...CAPACITÉS DE STOCKAGE ...

08/07/2016

 Notre cerveau aurait une capacité de stockage proche de celle du Web !
Lise LouméPar Lise Loumé
Voir tous ses articles
Publié le 25-01-2016 à 17h45

Le cerveau humain aurait des capacités 10 fois supérieures à celles supposées par les scientifiques jusqu'à présent, révèlent des chercheurs américains.
Nos souvenirs et nos pensées dépendent de l’activité chimique et électrique de notre cerveau. © Salk InstituteNos souvenirs et nos pensées dépendent de l’activité chimique et électrique de notre cerveau. © Salk Institute

 

Notre cerveau est-il comparable à Internet ?
"La méditation déstructure et transforme le rapport au temps"
"Les Big data vont révolutionner nos vies, notre travail et notre pensée"
"Ce résultat a l'effet d'une véritable bombe dans le domaine des neurosciences", annonce fièrement dans un communiqué Terry Sejnowski, neuroscientifique du Salk Institute à La Jolla, en Californie (États-Unis). Avec son équipe, il a mesuré la capacité de stockage du cerveau, et surprise : celle-ci est 10 fois supérieure aux estimations précédentes ! "L'équivalent d'au moins 1 pétaoctet (10 puissance 15), soit une capacité de grandeur proche de celle du World Wide Web", résume-t-il (une estimation a minima basée sur l'étude d'une petite zone du cerveau qu'il faudrait toutefois réévaluer nettement pour qu'elle soit réellement comparable au Web : même si la capacité de stockage de ce dernier est impossible à estimer, les 4 géants que sont Google, Facebook, Amazon et Microsoft stockeraient à eux seuls 1.200 pétaoctets de données...). Cette étude lève également le voile sur un mystère du cerveau. "Nous avons découvert la clé permettant de comprendre comment les neurones de l'hippocampe fonctionnent à pleine puissance en utilisant peu d'énergie, mais à pleine puissance", se réjouit le chercheur du Salk Institute, dont les travaux sont publiés dans la revue eLife. Explications.


Une région du cerveau modélisée en 3D

Grâce à l'analyse de tissus cérébraux de rats, l'équipe de recherche a reproduit en 3D une petite partie de l'hippocampe, région jouant un rôle fondamental dans la mémoire. Une infime partie même, puisque la zone reconstituée fait à peine la taille d'un globule rouge, soit quelques micromètres. Toutefois, reconstituer l'ensemble des neurones, synapses (voir encadré ci-dessous) et cellules gliales (jouant un rôle de soutien et de protection du tissu nerveux) de cette zone s'est avéré laborieux. "Nous avons été quelque peu déconcertés par la complexité et la diversité des synapses", commente Kristen Harris, qui a pris part à ces travaux.

SYNAPSES. Nos pensées et nos souvenirs sont gérés par l’activité chimique et électrique de notre cerveau. Ces activités résident principalement dans les connexions entre les neurones : les synapses. Chaque neurone peut avoir des milliers de synapses, le connectant à de milliers d'autres cellules.

Cette reconstitution 3D (à découvrir dans la vidéo ci-dessous) a permis aux chercheurs de remarquer une activité inhabituelle pour 10 % des connexions synaptiques : un seul axone ("tête" du neurone) formé de deux synapses touche un seul dendrite ("queue" du neurone) d'un deuxième neurone, et non deux dendrites, ce qui signifie qu'un neurone envoie un double message à un deuxième neurone. Afin de mesurer la différence de taille entre cette paire de synapses utilisées par le neurone pour envoyer son double message, les chercheurs ont poussé la reconstitution des connectivités neuronales à un niveau nanomoléculaire, à l'aide d'une microscopie de pointe et d'algorithmes de calculs poussés. Et là, surprise : alors que les synapses sont habituellement classées en 3 catégories (petites, moyennes et grandes), les chercheurs ont découvert des tailles intermédiaires. "Nous avons été surpris de constater que la différence dans les tailles des paires de synapses étaient très petites, environ 8 % de différence de taille seulement", explique Tom Bartol, co-auteur de l'étude. "Personne n'imaginait une si petite différence." En fait, il n'existe pas 3 catégories de synapses, mais 26 selon ces travaux ! 

Découvrez la reconstitution 3D :

Un grand stockage en consommant peu d'énergie

L'intérêt de cette découverte est qu'elle permet de mesurer le nombre d'informations pouvant être stockées dans les connexions synaptiques. "En langage informatique, 26 tailles de synapses correspondent à 4,7 bits d'information, précise Tom Bartol. Or, auparavant, nous pensions que le cerveau n’était capable que de stocker l’équivalent d'un ou deux bits de mémoire de courte et longue durée dans l'hippocampe." De plus, un cerveau adulte génère une puissance continue d'environ 20 watts (l’équivalent d’une ampoule basse consommation), ce qui signifie qu’il peut stocker des informations précises avec peu d’énergie. 

Enfin, les calculs des chercheurs suggèrent que les synapses changent de taille et de capacité en fonction des transmissions neuronales. La réception de 1.500 transmissions réduit la taille des synapses, ce qui prend une vingtaine de minutes, tandis que quelques centaines ont tendance à les agrandir, ce qui prend une à deux minutes. "Cela signifie que toutes les 2 à 20 minutes, vos synapses grandissent ou rétrécissent. Elles s'adaptent en fonction des signaux reçus", résume Tom Bartol. Pour les chercheurs, leurs travaux pourront contribuer à développer des ordinateurs plus efficaces et peu énergivores. "Derrière le chaos apparent du cerveau, il y a une véritable précision quant à la taille et la forme des synapses qui nous avait toujours échappé", conclut Terry Sejnowski.

 

DOCUMENT        sciencesetavenir.fr      LIEN

Comment le cerveau élabore-t-il la conscience

08/07/2016

Comment le cerveau élabore-t-il la conscience ?
Hugo JalinièrePar Hugo Jalinière
Voir tous ses articles
Publié le 13-04-2016 à 17h33

Le fait d'être conscient procède-t-il d'un phénomène cérébral continu ou discontinu ? Un vaste débat en neurosciences auquel des chercheurs proposent de substituer une troisième voie.
Image d'un cerveau humain dévoilant les principales voies neuronales qui connectent différentes parties du système nerveux central entre elles. ©Alfred Anwander/Max Planck Institute for Human Cognitive and Brain SciencesImage d'un cerveau humain dévoilant les principales voies neuronales qui connectent différentes parties du système nerveux central entre elles. ©Alfred Anwander/Max Planck Institute for Human Cognitive and Brain Sciences

 

400 millisecondes, c'est le temps qu'il faut à votre cerveau pour transformer un stimulus en une perception consciente. Telle est la conclusion d'une étude conduite par l'Ecole polytechnique fédérale de Lausanne et publiée le 12 avril 2016 dans la revue Plos Biology. L'objet de ces recherches était d'étudier la façon dont on prend conscience d'une information et de tenter de trancher un vaste débat : la conscience procède-t-elle de façon continue ? Ou bien, à la façon d'un cinématographe, par images se succédant très rapidement les unes aux autres et donnant ainsi l'impression d'un flux continu ?

Intuitivement, le fait d'être conscient se caractérise par un état continu de sensations diverses - sons, images, odeurs, mouvements... - traduites simultanément en perceptions conscientes. Sauf que lorsqu'on regarde de plus près le fonctionnement du cerveau, les choses ne sont pas si simples. Pour tenter d'y voir plus clair, le Pr Michael Herzog propose ainsi un nouveau "cadre conceptuel" fondé sur "des données d'expériences psychologiques et comportementales déjà publiées, qui visaient à déterminer si la conscience est continue ou discontinue", notamment par observation de l'activité cérébrale explique l'EPFL dans un communiqué. 

Un processus en 2 phases

En collaboration avec Frank Scharnowski de l'Université de Zurich, les chercheurs proposent un modèle en deux phases pour expliquer comment la conscience procède. Face à un stimulus sensoriel, le cerveau commence par analyser de façon inconsciente les détails de l'objet de la sensation (couleur, forme...). Les chercheurs décrivent une sorte de machinerie inconsciente qui ne cesse jamais de traiter les informations sensorielles. Le modèle suggère également que cette phase exclut la perception du temps.

Une fois ce traitement effectué, le cerveau va en quelque sorte livrer son bilan en le rendant conscient. C'est la deuxième phase : "Le cerveau rend simultanément conscients tous les éléments. Cela forme l'image finale que le cerveau présente à notre conscience. En d'autre termes, après ce traitement inconscient nous sommes finalement conscients du stimulus", expliquent les chercheurs. Un processus qui pourrait durer  jusqu'à 400 millisecondes donc. Un laps de temps qui paraît ridiculement petit mais qui, "d'un point de vue physiologique, constitue un décalage considérable".

La perception du temps, le chaînon manquant

"Le cerveau veut vous donner l'information la meilleure et la plus claire possible, et cela exige un certain temps, explique Michael Herzog. Il n'y a aucun avantage à vous faire connaître son traitement inconscient, parce que cela serait extrêmement déconcertant", poursuit le chercheur.

Si ce modèle reste hypothétique et devra être mis à l'épreuve dans une étude originale, il a le mérite de voir au-delà du traditionnel débat entre conscience continue ou discontinue. En effet, le modèle ne dit pas que la conscience est interrompue par ces phases de traitement inconscient. L'autre intérêt est d'ouvrir un nouveau champ d'interrogations sur "la façon dont le cerveau traite le temps et le met en relation avec notre perception du monde". La perception du temps comme chaînon manquant de la conscience en quelque sorte.

 

 DOCUMENT        sciencesetavenir.fr      LIEN

SUR LES TRACES DE LA MÉMOIRE ...

25/06/2016

LA MÉMOIRE ET L'OUBLI
Sur les traces de la mémoire


la mémoire et l'oubli - par Rémy Versace, Brigitte Nevers dans mensuel n°344 daté juillet 2001 à la page 92 (2444 mots)
Plutôt qu'une juxtaposition de modules et de mécanismes spécialisés, notre mémoire serait la réunion des traces laissées dans notre cerveau par chacune de nos expériences. La réactivation de ces traces lors de nos interactions avec l'environnement ferait émerger souvenirs et connaissances, reconstitués chaque fois.

Lorsque nous entrons une information quelconque dans un ordinateur, par l'intermédiaire du clavier ou d'un autre périphérique, nous nous attendons à ce que la « réponse » fournie par le système informatique soit toujours la même, quelles que soient les circonstances et quelle que soit notre humeur. C'est heureusement généralement le cas.

Au contraire, lorsque nous sommes nous-mêmes confrontés à un environnement donné, nous ne nous comportons pas toujours de la même façon. Nos comportements dépendent à la fois des propriétés objectives de l'environnement et de « l'état » de notre système nerveux au moment où il est stimulé. Or, cet état dépend lui-même de nos expériences antérieures.

Souvenir facilitant. La vitesse de lecture d'un mot dépend de notre familiarité avec celui-ci, de sa connotation émotionnelle et de notre état affectif, ainsi que des mots qui précèdent ou, plus largement, des autres « informations » rencontrées au préalable. Par exemple, si un enfant vous demande quel est le cri du kangourou, vous serez plus rapide, quelques minutes plus tard, pour identifier ce même mot, ou le mot « Australie », sur le livre que vous êtes en train de lire, ou pour les retrouver sur une grille de mots croisés.

La diversité des connaissances et des comportements qui peuvent émerger, selon les circonstances, dans une situation donnée et pour un même individu, relève d'une faculté fondamentale : celle de conserver en mémoire les nombreuses expériences ou situations auxquelles nous sommes confrontés et de les réutiliser de façon appropriée. Depuis les premières véritables investigations expérimentales sur la mémoire, débutées vers 1885 par le psychologue allemand Hermann Ebbinghaus, mais surtout à partir du milieu du XXe siècle avec la naissance de la psychologie cognitive, les scientifiques tentent de décrire comment et sous quelle forme ces expériences sont conservées en mémoire.

Une première approche, développée surtout à partir des années 19701, suppose l'existence de multiples systèmes de mémoire prenant en charge la conservation et le traitement des multiples formes de connaissances : mémoires sensorielles qui stockent temporairement les connaissances perceptives selon la modalité de perception on parle de mémoire visuelle, auditive, olfactive... ; système de représentations perceptives qui stocke à long terme les connaissances perceptives mais d'une manière indépendante des modalités de perception connaissances amodales ; mémoire procédurale, qui conserve les savoir-faire ; mémoire sémantique, qui stocke les connaissances conceptuelles ; mémoire épisodique, qui stocke les souvenirs.

Cette conception multisystème a plusieurs défauts importants. D'abord, elle n'est pas parcimonieuse : elle suppose l'existence pour chaque type de connaissance d'un système de mémoire particulier, autonome, avec des règles et des mécanismes spécifiques. Cette diversité des organisations proposées pour les différents systèmes rend aussi particulièrement difficile d'expliquer comment toutes les caractéristiques constitutives d'une expérience sont rassemblées pour former des connaissances cohérentes qui émergent de l'environnement. Par exemple, pour saisir un objet, il faut non seulement repérer sa forme pour savoir comment et par où le saisir et l'identifier pour avoir une idée de son poids, de sa fonction ou de son éventuel caractère dangereux, mais aussi le situer, dans l'espace et par rapport à notre position dans cet espace. Intégrer ces composantes, c'est reconstruire l'objet dans son environnement, ce qui est indispensable pour l'utiliser à bon escient.

Modules liés. En outre, ces modèles multisystèmes supposent l'existence indépendante d'un système de mémoire sémantique, permettant un accès conscient aux connaissances conceptuelles, et d'un système de mémoire épisodique, qui conserverait les expériences passées propres à l'individu, ses souvenirs. Comment alors rendre compte, à partir de ces deux systèmes indépendants, des liens entre les souvenirs, connaissances apparemment spécifiques à des expériences individuelles, et les connaissances conceptuelles ou abstractives, semble-t-il, détachées de ces expériences ? La mémoire épisodique n'est en effet pas une entité isolée de la mémoire sémantique, et notre expérience personnelle semble bien lier à l'élaboration des concepts et réciproquement : je sais par exemple que Johannesburg est une ville d'Afrique du Sud, parce j'y suis allé en vacances l'année dernière. Une connaissance épisodique semble pouvoir devenir sémantique par abstraction du contexte spatio-temporel dans lequel elle a été apprise. Mais il s'agit plus d'un changement d'état, c'est- à-dire d'un détachement progressif par rapport à des expériences personnelles, que d'un changement réel de système.

Système unique. Pour résoudre ces difficultés, une autre approche de la mémoire, désignée sous le terme de modèles à traces multiples2, a été proposée à la fin des années 1970. Selon ces modèles, il n'existe qu'un seul type de mémoire, à long terme, conservant une trace de toutes les expériences auxquelles l'individu est confronté. L'introduction de la notion de traces dans les modèles de la mémoire s'est faite en parallèle avec le passage d'une conception multisystème à une conception à système unique.

A un niveau neurobiologique, la notion de trace correspondrait à une modification structurelle des voies nerveuses, c'est-à-dire au marquage de réseaux de neurones, par l'intermédiaire d'une modification des capacités du réseau à transmettre l'influx nerveux en réponse à un signal externe. Sans aller plus avant dans ces fondements biologiques voir l'article de Serge Laroche, dans ce numéro, intéressons-nous plutôt à l'organisation et au contenu des traces, et donc des connaissances conservées par leur intermédiaire, ainsi qu'aux mécanismes de construction et de « réutilisation » de ces traces. En dépit des divergences entre chercheurs, la plupart d'entre eux s'accordent pour admettre deux propriétés des traces, leur multidimensionnalité et leur caractère épisodique.

Sensorielles et motrices. Une trace est multidimensionnelle, en ce sens qu'elle reflète les multiples propriétés ou composantes de l'expérience. Elle est épisodique car elle reflète totalement l'épisode ou l'expérience dans laquelle elle s'est constituée, y compris l'existence même de cette expérience.

De nombreux psychologues3 ont tenté de définir la nature des propriétés codées au niveau des traces. Il s'agirait essentiellement de dimensions sensorielles et motrices : des systèmes neuronaux communs, de type sensori-moteur, seraient activés lorsque nous sommes réellement confrontés à des objets, lorsque nous nous imaginons être en présence de ces objets, ou bien lorsque nous recherchons des connaissances conceptuelles à partir de ces mêmes objets.

Ainsi, A. Martin et ses collègues de l'Institut américain de la santé mentale à Bethesda, dans le Maryland4, ont montré, grâce à la tomographie par émission de positrons, que la production verbale de mots de couleurs et de mots désignant des actions active des zones cérébrales impliquées dans la perception des couleurs pour les premiers et dans la perception des mouvements pour les seconds. La même équipe a aussi montré que l'identification de dessins d'animaux ou d'outils est associée notamment à des activations des aires impliquées dans la perception visuelle précoce pour les premiers et dans le cortex prémoteur pour les seconds.

L.W. Barsalou et ses collègues, de l'université Emory à Atlanta, ont par ailleurs demandé à des sujets de vérifier des propriétés associées à des fruits ou à des animaux évoqués simplement par leurs noms. Ils ont constaté que tout se passe comme si l'individu simulait mentalement la présence de l'objet et recherchait en mémoire les propriétés associées à cet objet, exactement comme il pourrait le faire dans son environnement : les réponses sont en effet plus rapides pour des propriétés visibles par exemple, la forme d'une pomme qu'invisibles avoir des pépins, ou bien pour des propriétés de grande taille que pour des propriétés de petite taille.

Les actions effectuées sur les objets jouent pour certains psychologues un rôle tellement important au niveau des traces conservées en mémoire à long terme, qu'ils ont défendu l'idée d'une mémoire à long terme exclusivement fondée sur les savoir-faire.

C'est le cas notamment de P. Kolers5 qui, en 1973, avait proposé l'hypothèse selon laquelle l'efficacité de la récupération en mémoire dépendrait de la correspondance ou du recouvrement entre les traitements mis en jeu lors de la mémorisation et ceux qui sont impliqués lors de la récupération. Il a par exemple entraîné des sujets dans une activité de lecture de textes écrits normalement ou inversés lecture de droite à gauche et a évalué l'apprentissage de ce nouveau savoir-faire un an plus tard : les textes qui avaient déjà été présentés étaient lus plus rapidement que des textes nouveaux, à condition qu'ils soient présentés dans le même sens. Un contrôle a aussi montré que les sujets ne différenciaient pas consciemment les textes anciens des nouveaux.

Ainsi, il semble bien qu'une trace mnésique conserve à la fois les aspects sensoriels des informations traitées et les aspects moteurs des traitements effectués sur ces informations. Toutefois, définir les traces uniquement par leurs composantes sensori-motrices n'est pas suffisant. Une autre composante, très souvent négligée, est certainement codée au sein des tra-ces : l'émotion. Chaque expérience est en effet toujours associée à des états du corps plus ou moins agréables ou désagréables, et le système mnésique doit en garder une trace.

De plus en plus de travaux en psychologie montrent que l'émotion intervient automatiquement et rapidement dans l'émergence de toute forme de connaissances. L'émotion émergerait ainsi avant toute identification consciente de l'objet inducteur. Par exemple R.D. Lane et ses collègues de l'université d'Arizona6 ont remarqué que le débit sanguin cérébral était plus important dans la zone cérébrale de l'amygdale voir l'article de Martine Meunier dans ce numéro pour les images négatives que pour les images neutres et positives, et que cette asymétrie apparaît même en l'absence d'identification consciente des stimuli. Cela a été confirmé par des recherches comportementales dans lesquelles les sujets devaient juger du caractère agréable ou désagréable d'images : cela semble possible avant l'identification de l'image elle-même.

L'émotion jouerait donc un rôle essentiel au niveau de l'élaboration et de la réactivation des traces en mémoire. Tout le monde a eu l'occasion de constater que l'on se souvient beaucoup mieux d'une expérience passée si elle est associée à un état affectif intense, et cela a été vérifié expérimentalement. Mais quel est le rôle exact de l'émotion dans ce phénomène ? Il ne semble pas que le statut de l'émotion au sein de la trace soit équivalent à celui des autres composantes sensori-motrices. Elle aurait une fonction essentielle au niveau de l'intégration des traces.

En effet, puisque la trace est multidimensionnelle, elle résulte d'une synchronisation d'activations au sein des différentes structures codant les multiples propriétés de l'expérience. Or, cette intégration des différentes dimensions de la trace nécessite l'intervention de structures neuronales spécifiques, qui sont aussi très souvent évoquées à propos de l'émotion7. C'est le cas notamment du cortex préfrontal et de l'amygdale. La région de l'hippocampe voir l'article de Poucet dans ce numéro semble également être impliquée dans l'établissement et le stockage à long terme d'un lien entre les diverses caractéristiques sensorielles8.

Catégorisation émotionnelle. En poussant à l'extrême ce rôle de l'émotion, Paula Niedenthal, de l'université de Clermont-Ferrand9, défend même l'idée d'une catégorisation des objets reposant essentiellement sur l'émotion suscitée par ceux-ci auprès de l'individu. Nous classerions ensemble, ou considérerions comme équivalents, des objets qui évoquent le même type de réponse émotionnelle.

Pourrait-on décrire plus précisément la constitution et la réactivation des traces ? La confrontation avec un environnement se traduit automatiquement et immédiatement par une activation de traces antérieures : la nouvelle trace qui en émerge et qui se construit en mémoire est donc une sorte de schématisation, ou d'abstraction, de la situation. Une trace n'est pas une copie conforme d'une situation. Définir la trace comme l'émergence d'un état confère un caractère extrêmement dynamique à la mémoire et aux connaissances qui vont progressivement émerger.

Traits instantanés. Que se passe-t-il lorsque nous sommes par exemple confrontés à une scène visuelle ? En quelques dizaines de millisecondes, nous détectons la présence de traits sensoriels, par exemple des couleurs, des formes simples, des orientations ou des déplacements. Mais dans cette première phase, nous ne pouvons pas dire que telle forme avait telle couleur ou telle orientation : nous ne pouvons pas intégrer les différents composants sensoriels de la scène visuelle. Les connaissances sont ici encore très morcelées.

Le phénomène de mémoire sensorielle correspondrait donc simplement à cette première activation de niveau sensoriel, mais déjà en mémoire à long terme. Ainsi, au contraire des approches multisystèmes, les modèles à traces multiples de la mémoire ne séparent pas les mémoires sensorielles de la mémoire à long terme, ni les mécanismes perceptifs des mécanismes mnésiques intervenant ultérieurement. Les traits de niveau sensoriel c'est- à-dire, les traits activés en premier, spécifiques aux propriétés élémentaires des objets impliqués lors de la perception des objets ne sont pas invariants. Ils dépendent au contraire de nos expériences antérieures et constituent des éléments à part entière de traces mnésiques.

Les premières activations de niveau sensoriel se propagent très rapidement vers d'autres composantes en rapport avec les autres propriétés de l'environnement, dont les composantes motrices et affectives. Des intégrations de plus en plus poussées de ces propriétés permettent un accès à des connaissances de plus en plus élaborées et de plus en plus unifiées en rapport avec l'environnement présent. Par exemple, lorsque nous examinons un visage, sa forme globale, des indices permettant de déterminer s'il s'agit d'un homme ou d'une femme, des traits de l'expression sont détectés et intégrés en un ensemble cohérent, ce qui permet éventuellement de reconnaître la personne.

On ne nomme généralement « connaissance » que ces connaissances hautement intégrées, de niveau symbolique ou sémantique. Mais selon notre description ces connaissances correspondent à des états d'activation du système mnésique et sont toujours créées ou recréées dans le cadre d'interactions avec l'environnement. Cette notion d'état émergeant d'une expérience est centrale dans cette manière de concevoir la mémoire et traduit l'abandon de l'idée d'une mémoire « encyclopédique » contenant un stock de connaissances parfaitement définies, répertoriées et adressables à volonté en fonction des besoins, sous-jacentes aux modèles traditionnels.

Il n'existerait donc pas de différence fondamentale entre les souvenirs et les connaissances catégorielles ou symboliques, mais simplement une proximité plus ou moins grande avec un seul état antérieur. Un souvenir correspondrait à un état très proche d'un état antérieur spécifique, enregistré par une seule trace, alors qu'une connaissance catégorielle reflèterait de multiples états ou traces antérieurs.

Traces indiscernables. Dans une telle perspective, l'oubli ne correspond pas à la disparition d'une connaissance ou d'un souvenir, mais plutôt à la difficulté de discriminer une trace particulière parmi d'autres traces. Le contexte pourrait donc également permettre de rendre une trace plus spécifique et donc plus facilement réactivable. Cela expliquerait par exemple le type de situation où nous sommes incapables d'associer un nom au visage d'une personne qui nous est pourtant familier, ni même d'expliquer l'origine de cette impression de familiarité. Il suffit généralement que le contexte dans lequel nous avons l'habitude de rencontrer cette personne nous revienne à l'esprit pour qu'immédiatement, toutes les informations manquantes deviennent accessibles.

Par Rémy Versace, Brigitte Nevers

 

 DOCUMENT       larecherche.fr       LIEN

LES BIOPUCES

17/06/2016


Les biopuces à la conquête du marché


autre - dans mensuel n°318 daté mars 1999 à la page 60 (2530 mots)
La biopuce permet d'analyser en quelques heures des milliers de séquences d'ADN ou d'ARN. Grâce à elle, il est possible de repérer des mutations et de savoir immédiatement quels gènes répondent à l'action d'une molécule ou sont impliqués dans une maladie. Ses applications au diagnostic médical et aux recherches thérapeutiques suscitent l'émergence de quantité de sociétés spécialisées, surtout aux Etats-Unis.

Du fait du potentiel qu'on leur attribue pour le diagnostic biologique et en génomique, les biopuces suscitent un intérêt croissant de la part des scientifiques et des industriels. La puce à ADN, ou « DNA chip » comme on l'appelle aux Etats-Unis où elle a vu le jour il y a sept ans, est au confluent de la microélectronique, de la chimie combinatoire, de la biologie moléculaire, de l'informatique et du traitement du signal. Elle permet d'identifier en quelques heures les constituants d'un échantillon complexe renfermant de l'ADN ou de l'ARN.

Comme un VelcroÆ. Le principe de cette nouvelle technologie a été décrit à la fin des années 1980 par quatre équipes différentes, en Grande-Bretagne, en Russie et aux Etats-Unis. Il exploite un fondement de la biologie moléculaire, la réaction d'hybridation, au cours de laquelle les deux brins d'ADN qualifiés de complémentaires se lient l'un à l'autre comme les deux faces d'un VelcroÆ, les bases A adénine s'appariant avec les bases T thymine de l'autre brin, et les bases G guanine avec les base C cytosine. Et réciproquement.

Le Russe Andrei Mirzabekov et ses collègues de l'institut Engelhardt de biologie moléculaire de Moscou avaient ainsi imaginé en 1989 qu'il était possible d'identifier une séquence nucléotidique, autrement dit l'enchaînement des bases d'un fragment d'ADN, en mettant ce dernier en présence de milliers d'autres brins d'ADN de séquence connue, fixés sur un support voir l'encadré « Comment fonctionnent les biopuces p. 62 ».

Un nouveau concept était né : le séquençage par hybridation. Mais il restait à imaginer comment fabriquer et greffer sur une petite surface les milliers de fragments d'ADN oligonucléotides nécessaires. C'est ce qui fut fait deux ans plus tard, par un groupe de chercheurs travaillant dans une jeune société californienne de biotechnologie, Affymetrix, qui mit ainsi au point la première puce à ADN.

L'avancée technologique dont la GeneChip d'Affymetrix semblait porteuse n'a pas tardé à susciter des émules. D'autres équipes ont rapidement développé leurs propres produits en s'appuyant sur différentes méthodes de fabrication et d'adressage des brins d'ADN sur des supports variés. Elles ont donné naissance à une petite dizaine de firmes, toutes implantées en Californie, comme Synteni, rachetée par Incyte Pharmaceuticals à la fin de 1997, Hyseq, associé au fabricant d'instruments scientifiques Perkin Elmer, Molecular Dynamics, Nanogen, Protogene...

En dehors des Etats-Unis, rares sont les équipes qui développent des biopuces. Récemment, l'institut moscovite s'est associé au groupe américain Motorola, au Argonne National Laboratory Illinois et à l'américain Packard Instrument. Quant au centre allemand de recherche sur le cancer de Heidelberg, il collabore avec l'université de Copenhague Danemark sur un procédé dans lequel des acides nucléiques peptidiques PNA remplacent l'ADN dans les sondes fixées sur la puce. Ces PNA sont aussi constitués d'un enchaînement de bases nucléotidiques mais leur squelette, qui mime celui de l'ADN, est plus stable car il repose sur des liens peptidiques et non sur les assemblages sucres-phosphates des acides nucléiques. En Grande-Bretagne, Edwin Southern du département de biochimie d'Oxford, l'un des tous premiers à avoir déposé, en 1988, un brevet portant sur la synthèse d'oligonucléotides sur un support, a récemment créé la société Oxford Gene Technology pour exploiter un nouveau brevet portant sur un procédé de fixation de petits fragments d'ADN sur une puce.

En France, une seule société, CIS bio International Saclay, conçoit des puces à ADN en collaboration avec le laboratoire d'électronique, de technologie et d'instrumentation Léti et le département de recherche fondamentale de la matière condensée DRFMC du CEA à Grenoble. Le secteur reste, on le voit, dominé par son pionnier, Affymetrix.

Une puce pour le VIH. Conçue en 1991, sa puce prototype devait déboucher cinq ans plus tard sur la première puce commercialisée. De 12,8 mm de côté, elle a été développée pour l'analyse de mutations du virus du sida VIH.

La puce VIH permet de rechercher, parmi une portion restreinte du millier de paires de bases du génome du VIH-1, les mutations qui confèrent au virus une résistance vis-à-vis des inhibiteurs de la transcriptase inverse RT* et des antiprotéases P*. Elle est utilisée en routine depuis le début 1997 par un gros laboratoire prestataire de services en biologie clinique basé en Caroline du Nord LabCorp, Research Triangle Park et donne un résultat en cinq heures .

En France, la société bioMérieux, spécialiste du diagnostic biologique, a conclu un accord exclusif avec Affymetrix pour développer des puces de détection bactérienne et d'analyse de résistance aux antibiotiques. Chez bioMérieux, le programme de recherche sur les puces à ADN est orienté vers une puce capable d'identifier en une seule étape toutes les espèces de mycobactéries connues dont le bacille de la tuberculose, pathogènes ou non pathogènes. Elle permettra à des laboratoires de recherche, des centres de référence et de grands laboratoires hospitaliers d'identifier précisément l'espèce présente dans un prélèvement pulmonaire et renseignera, par exemple en cas de Mycobacterium tuberculosis , sur la présence d'éventuelles mutations conférant une résistance à la rifampicine, antituberculeux majeur. « La puce Mycobactéries compte aujourd'hui plus de 40 000 oligonucléotides » précise Patrice Allibert, responsable projet « sondes » chez bioMérieux. « Nous disposerons d'ici deux ans de puces quatre fois plus petites [donc de 3mm, NDLR]. Les puces mycobactéries ou HIV sur lesquelles nous travaillons nous sont livrées par Affymetrix, qui effectue la synthèse des oligonucléotides selon notre cahier des charges. » La première puce de bioMérieux pourrait être commercialisée d'ici à l'an 2000. A terme, la société lyonnaise envisage de développer d'autres puces pour la détection de germes pathogènes présents dans le sang et les voies respiratoires ou génitales. Ce partenariat a été étendu à la virologie pour la détection des mutations conférant au virus du sida des résistances aux antirétroviraux. Un autre domaine d'application des puces à ADN réside dans la génétique médicale. Trois puces permettent, avec une fiabilité comparable aux techniques classiques de biologie moléculaire, de détecter les mutations du gène CFT R chez les patients à risque de mucoviscidose, du gène BR CA-1 chez les femmes à risque pour le cancer du sein, ou encore de celui de la bêta-globine chez des enfants menacés de bêta-thalassémie, anémie héréditaire causée par un défaut dans la synthèse de l'hémoglobine.

Affymetrix a pour sa part développé, en collaboration avec la firme OncorMed Gaithersburg, Maryland, spécialiste des tests génétiques de cancérologie, une puce capable de détecter les mutations du gène humain p53 . Ce gène suppresseur de tumeur est en effet muté dans près de la moitié des cancers. Commercialisée depuis juillet 1997, cette puce détecte une susceptibilité génétique à certains cancers et permet de suivre l'impact des traitements de radiothérapie ou de chimiothérapie sur la tumeur chez les malades atteints. De son côté, Incyte Pharmaceuticals s'est associée avec la firme pharmaceutique SmithKline Beecham pour créer une joint-venture, diaDexus, qui développera et commercialisera des outils de diagnostic génétique.

Nouveaux gènes. La puce à ADN contribuera aussi à une compréhension plus fine du fonctionnement du génome et de sa régulation, ce que l'on appelle la génomique. Grâce aux puces à ADN, de nouveaux gènes ont ainsi été mis en évidence qui s'expriment spécifiquement dans le tissu cérébral de l'enfant, ou qui apparaissent associés à des pathologies inflammatoires rhumatismales ou intestinales. Ainsi, au fur et à mesure des pro-grès dans la compréhension des mécanismes fondamentaux associés aux grandes pathologies humaines, les biopuces devraient contribuer à l'identification des cibles thérapeutiques les plus appropriées. " Cela dit , reconnaît Pierre Casellas, directeur du service d'immunologie de Sanofi Recherche à Montpellier, l'emploi de ces outils miniaturisés génère « un nombre de données tellement important qu'il est impensable qu'on soit aujourd'hui en mesure de les interpréter dans toute leur complexité et ainsi parvenir à les intégrer dans un schéma global de fonctionnement de la cellule. C'est dire, dans le long terme, l'importance du pari de la bioinformatique pour tirer le meilleur parti de l'utilisation de cette technologie révolutionnaire. »

Pharmacogénomique. Affymetrix a développé des puces à ARN pour l'analyse quantitative des profils d'expression de 6 800 gènes humains, 6 500 gènes de -souris et 6 100 gènes de la levure. Elle élargit aujourd'hui sa gamme en proposant des puces d'analyse de l'expression de 30 000 gènes de souris et plus de 40 000 séquences d'ADN humain. Son accord signé le 12 novembre 1998, avec la société de génomique Human Genome Sciences HGS va en effet lui permettre de puiser dans les séquences génétiques issues de la base de données de HGS. De son côté, son concurrent, Synteni, commercialise des puces contenant chacune 10 000 fragments de gènes humains.

Outre l'identification de cibles pour la recherche pharmaceutique, la biopuce pourrait aussi servir à une meilleure compréhension des mécanismes d'action des médicaments. C'est le domaine de la pharmacogénomique. Depuis novembre 1997, Affymetrix propose une puce de 800 oligonucléotides permettant la détection des 18 mutations et des 10 variations polymorphismes répertoriées dans deux gènes associés à un système enzymatique cytochrome P450 qui joue un rôle essentiel dans la cinétique de dégradation par le foie de nombreux médicaments. « Nous pouvons, pour un type de cellule donné mesurer la quantité exprimée des différents ARN messagers en établissant au préalable un calibrage avec un ou plusieurs gènes dont le niveau d'expression est connu » explique Pierre Casellas, qui a passé un accord avec Affymetrix.

En montrant qu'une molécule déclenche une activité génique que l'on ne soupçonnait pas, la biopuce donne une vision élargie du potentiel thérapeutique d'un produit et permet donc parfois de s'orienter sur des pistes pharmacologiques jusqu'à présent méconnues. En même temps, c'est pour la même raison, un outil pour identifier les effets secondaires éventuels d'un produit. Elle constitue un test de toxicologie prédictive permettant parfois d'éviter de coûteux essais cliniques. Couplée à d'autres techniques, la puce à ADN autorisera aussi une détermination plus juste des doses nécessaires pour obtenir un effet pharmacologique le plus proche possible de celui observé en laboratoire.

En France, des biopuces comportant jusqu'à 10 000 sondes sont en développement chez CIS bio International et au Léti. Ces deux structures prévoient de monter, cette année, une start up pour répondre aux besoins de leurs futurs clients, qui aujourd'hui n'ont pas d'autre choix que d'acheter des biopuces aux Etats-Unis. « Des discussions ont débuté avec de grands laboratoires dans l'agroalimentaire ou des sociétés de diagnostic travaillant sur les prédispositions génétiques aux différents types de diabète ou aux diverses maladies cardio-vasculaires, dont l'hypertension artérielle. Des puces d'analyse des cytochromes P450 sont aussi à l'étude » confie Joseph Marchand, directeur scientifique de CIS bio International.

Le gotha de la pharmacie. On comprend l'engouement des groupes pharmaceutiques pour cette technologie. A côté des sociétés américaines de biotechnologie, comme Millenium ou GeneLogic, et de grands instituts de recherche Whitehead Institute/MIT, Howard Hughes Medical Institute, Affymetrix compte parmi ses clients le gotha de la pharmacie mondiale avec des groupes comme le britannique Glaxo Wellcome, le suisse Novartis, ou les américains Bristol-Myers Squibb, Merck ou Pfizer, mais aussi les français Sanofi ou Rhône-Poulenc Rorer. Outre le diagnostic médical et la pharmacie, trois secteurs industriels offrent des applications potentielles aux puces à ADN.

L'agroalimentaire d'abord. Les biopuces permettant de suivre et de quantifier tout au long d'une chaîne de production des bactéries productrices de ferments lactiques, et de détecter et de contrôler des séquences provenant d'organismes génétiquement modifiés OGM dans des générations successives de semences.

L'environnement n'est pas en reste non plus, qu'il s'agisse de l'analyse bactérienne de l'eau de consommation courante ou du contrôle qualité dans l'industrie pour détecter des agents infectieux dans l'alimentation salmonelles, Listeria, Legionella , l'air, l'eau ou la chaîne de fabrication de produits pharmaceutiques.

Signatures moléculaires. La détection d'agents utilisés pour la guerre bactériologique ou chimique peut aussi être envisagée. Il serait ainsi possible de déterminer précisément les modifications occasionnées par des agents toxiques dans l'expression de plusieurs milliers de gènes pour certains types de cellules, en particulier les lymphocytes qui contribuent au système immunitaire. La connaissance préalable de ces millions de signatures moléculaires, stockées dans des banques de données, permettrait l'identification rapide de la menace à partir de n'importe quel échantillon potentiellement contaminé par des produits chimiques mercure, dioxine, gaz sarin, etc. ou des micro-organismes pathogènes bacille du charbon, de la diphtérie....

La compétition est rude dans le petit monde des développeurs de biopuces, où chacun accuse le concurrent d'utiliser la technologie qu'il a mis au point lui-même ou de s'en inspirer trop étroitement. On assiste actuellement à une guerre des brevets qui porte sur les procédés de dépôt des sondes sur la puce et de séquençage par hybridation. La société Affymetrix a ainsi intenté un procès à Incyte Pharmaceuticals et à Synteni, et est elle-même attaquée en justice depuis fin 1997 par Hyseq sur deux de ses brevets.

Ces querelles devront forcément trouver un épilogue puisque ces sociétés, qui ont misé des millions de dollars sur un procédé, doivent pouvoir commercialiser leurs produits au niveau mondial pour rentabiliser leur investissement. Elles devront donc, sous peine de disparaître procéder à des échanges de licences sur les brevets, aucune ne possédant la totalité de ceux-ci. « Des alliances stratégiques verront le jour dans des domaines d'application où ces entreprises sont en situation de concurrence aujourd'hui » prédit Joseph Marchand CIS bio International. Sans parler des problèmes que risquent de poser le brevetage des EST* ou des fragments de gènes. L'obligation pour les fabricants de puces de verser des redevances sur de tels brevets leur ôterait tout espoir de rentabilité.

Or, l'avenir de cette technologie, dont on estime le marché potentiel immédiat à environ un milliard de dollars par an, dépend aussi de son coût. Si Affymetrix vend 100 dollars certaines de ses puces HIV, et 145 dollars celle du cytochrome P450, d'autres peuvent atteindre 850 dollars. Or il s'agit de produits à usage unique. Et il faut bien sûr ajouter le prix de l'ensemble formé par la station fluidique voir l'encadré le scanner et le logiciel de traitement des données, qui s'élève par exemple chez Affymetrix à 135 000 dollars. Mais si une société désire s'engager dans une collaboration avec Affymetrix afin que celle-ci lui développe des puces sur mesure, les tarifs peuvent atteindre plusieurs millions de dollars. Outre les revenus de licence, la société procède également à des versements additionnels auprès du fabricant de puces lors du franchissement de chaque étape du programme et au versement de royalties lorsque cela débouche sur la commercialisation d'un produit.

A CIS bio International, on estime que l'objectif est de parvenir, d'ici à trois ou quatre ans, « à un prix de quelques dizaines de francs, quel que soit le type de puces ». Ce n'est qu'une fois ce prix atteint et les problèmes financiers et juridiques résolus que les puces à ADN s'imposeront. Il reste donc du chemin à parcourir avant que à partir d'une goutte de sang obtenue par simple piqûre au bout du doigt, le malade reparte du cabinet de son médecin avec en poche un diagnostic prédictif issu d'une puce.

 

 DOCUMENT    larecherche.fr     LIEN

L'ORIGINE DE FORMES MUSICALES

10/06/2016

L'ORIGINE DES FORMES


La musique et les sons ont-ils une forme ?


l'origine des formes - dans mensuel n°305 daté janvier 1998 à la page 98 (3093 mots)
Au-delà des « formes » musicales sur lesquelles travaillent les compositeurs, les sons eux-mêmes peuvent être traduits en termes de formes. Mais les différentes façons de les représenter sont toutes imparfaites : la perception du son et de la musique, fruit de notre histoire évolutive et sujette à de fascinantes illusions, est loin de se réduire à un problème de physique.

Claude Debussy reprocha un jour à Erik Satie de ne pas se soucier assez de la forme dans ses compositions. Piqué au vif, Satie lui adressa peu après ses Trois M orceaux en forme de poire . Sous couvert de dérision, Satie pose là le problème de la forme en musique. Chacun connaît des formes musicales Ñ suite, fugue, choral, cantate, sonate, symphonie, concerto Ñ dont le choix prescrit le schéma de fabrication, la succession des parties, l'agencement global d'une oeuvre. La forme rondo se définit ainsi par le retour cyclique d'un même motif musical entre des couplets successifs. La forme sonate est plus complexe : elle s'applique en réalité au premier mouvement d'une sonate ou d'une symphonie. On la décrit souvent comme le jeu de deux thèmes qui se répondent, mais le schéma de la sonate classique fait intervenir aussi les modulations, c'est-à-dire les changements de tonalité.

La forme sonate est donc inséparable de la grammaire musicale. La musique occidentale classique possède une syntaxe tonale rigoureuse. Les sons utilisés doivent avoir une hauteur déterminée, les seules échelles de hauteur permises Ñ les gammes Ñ sont majeures ou mineures1, et certains degrés de ces gammes tonique, dominante ont un statut privilégié. Les mouvements obligés que stipule la syntaxe tonale déterminent des relations d'attraction ou de répulsion entre les hauteurs sonores, créant une véritable « gravitation » tonale. Fortement structurante du temps de Haydn, Mozart et Beethoven, cette syntaxe a été graduellement érodée par la multiplication des modulations et l'invasion des glissements chromatiques, notamment chez Chopin, Liszt et Wagner. En même temps que la syntaxe musicale, les formes ont évolué au cours de l'histoire de la musique. Suivant le style, le propos de la musique, les éléments déterminants de la forme diffèrent : l'effectif, comme pour la cantate, qui fait nécessairement intervenir des chanteurs, le procédé de composition, comme pour la fugue, fondée sur les présentations échelonnées d'un même motif, la disposition, comme la structure du menuet ou du scherzo. Mais si l'on peut définir une forme d'école par une structure prototype2, les musiciens novateurs Ñ comme Beethoven dans ses dernières oeuvres ou Liszt dans sa sonate pour piano en si mineur Ñ s'écartent souvent de ce modèle académique.

A l'époque moderne, la syntaxe tonale est affaiblie, et la forme évolue en conséquence. Chez Debussy, les accords prennent valeur de sonorité, de timbre, plutôt que de fonction tonale. Arnold Schoenberg « suspend » la gravitation tonale : conscient des problèmes que cela pose pour assurer le soutien architectonique de la « grande forme »3, il prône la variation continue, la reformulation toujours différente d'une forme de base.

Edgard Varèse refuse de réduire la forme musicale à ce qu'il appelle le schème formel : pour lui, la forme n'est pas un moule, mais plutôt la résultante des tractations musicales intervenant au cours du devenir de l'oeuvre. Ces conceptions seront poussées à l'extrême, jusqu'au bord de l'informel, avec la moment-form proposée par Karlheinz Stockhausen, où la genèse de la forme est liée au « mystère de l'instant »4.

Une autre manière d'atténuer la tyrannie des schèmes formels est apparue au cours des années 1950 dans la musique occidentale, en réaction sans doute aux prescriptions « totalitaires » de la syntaxe sérielle de Schoenberg et Boulez : elle a consisté à autoriser Ñ ou à imposer Ñ une certaine indétermination dans la forme musicale, devenant « forme ouverte », en laissant le choix final de la forme au hasard, ou à une détermination extérieure à la musique elle-même, à l'instar des sculptures mobiles d'Alexandre Calder. Parmi les oeuvres ouvertes ou aléatoires de cette époque, il faut citer les Avalaible forms d'Earle Brown, le Mobile d'Henri Pousseur, la Troisième sonate de Pierre Boulez, les Archipels d'André Boucourechliev, et de nombreuses oeuvres de John Cage.

Les matériaux nouveaux appellent de nouvelles architectures. Ce principe, illustré par Debussy et Varèse dans leurs oeuvres instrumentales, s'applique a fortiori aux musiques électroacoustiques et numériques, dont le vocabulaire sonore puise dans un univers sonore illimité, incluant les sons naturels, les sons de synthèse et toutes leurs transformations ou combinaisons. Non content de composer avec des notes ou des sons préfabriqués, le musicien peut alors donner forme directement à un matériau sonore ductile, le sculpter, le modeler, en somme composer le son lui-même, en joignant aux responsabilités du compositeur celles de l'interprète et du luthier. Comme on l'imagine, ces possibilités entraînent pour la forme musicale de nouveaux avatars : il est donc de plus en plus vain de répertorier les formes musicales d'aujourd'hui suivant les modes d'agencement de leurs éléments.

Suivant les termes d'Arnold Schoenberg, la notion de forme recouvre « tout ce qui assure la logique et la cohérence du discours musical ». La musique est un art du temps. L'unité d'une oeuvre, sa forme musicale, ne peuvent se saisir pleinement qu'après l'écoute intégrale. Remonter à la forme musicale implique une conception exigeante de l'écoute, cherchant à s'absorber dans le temps propre de l'oeuvre et à revivre un « temps retrouvé ».

La partition représente les hauteurs successives en fonction du temps : on peut remarquer qu'il s'agit, historiquement, de la première représentation temps-fréquence , ou plus exactement temps-échelle d'un signal. Le mot échelle, ici, implique que les fréquences sont figurées suivant une échelle logarithmique, sur laquelle des intervalles égaux correspondent à un même rapport de fréquence et non à une même différence de fréquence. Sur une partition, une figure mélodique apparaît comme le contour d'une ligne de crête qui monte et descend. Le compositeur Heitor Villa-Lobos a d'ailleurs réalisé la composition New York skyline en transposant sous forme de notation musicale le profil des gratte-ciel de Manhattan.

Si la notation musicale a servi d'abord à aider la mémoire, elle a par la suite influencé la façon de composer en permettant un travail d' écriture . La complexité polyphonique a augmenté : on trouve des canons de Ockeghem à trente six voix. Les symétries selon les axes de coordonnées de la partition, évidentes sur la représentation graphique, ont suggéré les transformations mélodiques du contrepoint Ñ le renversement des intervalles, la rétrogradation des mélodies Ñ alors que ces transformations ne sont guère utilisées dans les musiques de tradition orale. Le canon présenté en figure 1, extrait de L'Offrande musicale de Jean-Sébastien Bach, illustre la rétrogadation : il se lit de la même façon du début à la fin ou de la fin au début.

Il existe quelques exemples de passages de formes visuelles à des formes sonores. Varèse, décrivant sa musique, utilise des images tirées de la géométrie et de la cristallographie : « Lesformes musicales possibles sont aussi innombrables que les formes extérieures des cristaux ». Stravinsky parle des « précieux diamants » de la musique d'Anton Webern, dont l'écriture recourt souvent à des figures symétriques. Outre New York skyline déjà cité, il faut mentionner diverses partitions graphiques de Sylvano Bussotti, John Cage et Earle Brown. Dans ma pièce Moments newtoniens , j'évoque les travaux de Newton en calcul différentiel par des trajectoires tangentes de fréquence. Metastasis de Iannis Xenakis 1954 est une oeuvre orchestrale majeure : les cordes y tissent d'étonnants glissandi désynchronisés.

Cette oeuvre utilise la transcription sur papier à musique de f ormes spatiales, en l'occurrence des surfaces réglées engendrées par des droites comme le paraboloïde hyperbolique, les pentes des droites de la surface déterminant les vitesses de glissement des hauteurs sonores. Xenakis, alors assistant de Le Corbusier, a plus tard utilisé ces surfaces pour la conception du pavillon Philips de l'Exposition universelle de Bruxelles en 1957.

La partition représente la succession dans le temps des notes de musique, dont chacune possède une hauteur déterminée. On a longtemps pensé qu'une note correspondait à une onde sonore à peu près périodique dont la fréquence déterminait la hauteur perçue, et que des formes d'ondes différentes donnaient des notes de timbres différents Ñ comme ceux de divers instruments.

Mais Ohm et Helhmoltz avaient remarqué que des formes d'onde différentes pouvaient sonner de la même façon à l'oreille : ils ont interprété cette observation à partir de l'analyse de sons périodiques en série de Fourier.

Le baron Fourier avait démontré au début du XIXe siècle qu'on pouvait reconstituer toute onde périodique régulière de fréquence f comme la superposition d'« harmoniques », c'est-à-dire de sinusoïdes de fréquence f, 2f, 3f, etc., avec des amplitudes et des phases appropriées. Ohm a établi que l'oreille était insensible aux relations de phases des harmoniques des sons périodi-ques, ce qui est compréhensible car ces relations sont brouillées au cours de la propagation dans une salle réverbérante : elles n'apporteraient qu'une information non significative perturbant la reconnaissance de la source.

L'allure du « spectre de Fourier » Ñ l'ensemble des amplitudes des harmoniques successifs Ñ devenait alors la signature du son, le déterminant du timbre musical, la matière même du son. Cette conception ne faisait que justifier la pratique des musiciens qui connaissaient les harmoniques depuis longtemps : dès le XVe siècle, les facteurs d'orgue savaient « composer » le timbre des jeux dits de mixture en faisant sonner ensemble plusieurs tuyaux accordés suivant des harmoniques de la note jouée. Pour la parole, la position des maxima spectraux influence le timbre du son et sa qualité « vocalique ». Ainsi une voyelle donnée Ñ a, i ou o Ñ s'obtient en donnant au conduit vocal une certaine forme , qui donne lieu à certaines fréquences de résonance, lesquelles déterminent le spectre émis fig. 2.

Cependant, cette idée du timbre s'est révélée trop simpliste : elle ne s'appliquait qu'à des sons stables, comme les sons d'orgue. Or le timbre d'un piano devient méconnaissable si l'on fait défiler le son à l'envers, ce qui est facile à partir d'un enregistrement sur bande magnétique. Il faut donc prendre en compte l'évolution temporelle du son, la façon dont l'attaque ou l'entretien par l'instrumentiste modèle ce son Ñ ce que Pierre Schaeffer a appelé la forme imprimée à la matière sonore. Aussi a-t-il fallu développer des représentations figurant l'évolution du spectre dans le temps, et comportant donc trois dimensions : fréquence, amplitude et temps fig. 3.

En réduisant la représentation au plan temps-fréquence, on obtient un sonagramme. Quelques sonagrammes de sons musicaux fig. 4 suffisent à montrer l'extrême variété des morphologies sonores5, particulièrement pour les exemples synthétisés par ordinateur : ce processus permet de produire des matériaux sonores très divers et ductiles. Schaeffer, développant la musique concrète au Groupe de recherches musicales à Paris dans les années 1950, avait introduit la notion d'objet sonore, entité pouvant exister isolément et susceptible d'être représentée en trois dimensions fréquence, amplitude, temps. Mais un objet sonore ne correspond pas forcément à une note, et il est des formes sonores qui se laissent difficilement décomposer en objets séparés. Les sonagrammes donnent probablement des sons les images les plus « parlantes » qu'il soit possible d'obtenir. Cependant, il faut se garder de les tenir pour le reflet fidèle de la perception auditive.

D'un son orchestral complexe mais dans lequel l'oreille peut discerner clairement des parties, elles peuvent donner une image confuse et illisible. Et l'oreille confère une valeur toute particulière à certains intervalles de hauteur comme l'octave ou la quinte : un intervalle d'une octave juste est très consonant les notes fusionnent facilement à l'oreille, alors qu'une augmentation d'un demi-ton de cet intervalle le rend très dissonant : il donne lieu à une rugosité, à des battements ou des frottements. A l'inverse, des symétries spatiales peuvent sauter aux yeux sur la représentation sans que l'oreille les remarque. Ainsi les palindromes sont vite repérés par l'oeil mais pas par l'oreille, qu'il s'agisse des canons réversibles de L 'Offrande musicale de Bach fig. 1 ou du palindrome phonétique de Luc Etienne : « Une slave valse nue ». Le sonagramme est donc une représentation du son suggestive, mais infidèle.

La transformée de Gabor et la transformée en ondelettes s'apparentent au sonagramme : elles analysent le son en termes non pas de sinusoïdes, fonctions du temps qui s'étendent jusqu'à l'infini, mais de fonctions limitées dans le temps Ñ grains de Gabor ou ondelettes. Elles donnent lieu à des représentations physiquement complètes, puisqu'elles permettent de reconstituer le son initial6, mais qui sont elles aussi infidèles.

Depuis le siècle dernier, on a réalisé des illusions visuelles et construit des formes « impossibles », comme l'escalier sans fin de Penrose fig. 5 ou la célèbre cascade d'Escher. Grâce à la précision que permet la synthèse des sons par ordinateur, on a pu depuis une trentaine d'années produire des illusions auditives, souvent homologues aux illusions visuelles7 voir l'article de Jacques Ninio dans ce numéro.

La perspective visuelle nous fait interpréter les images suivant certains indices qui nous aident à mieux saisir la dimension des personnages indépendamment de la distance, à favoriser la « constance » de l'objet. Mais cette interprétation peut donner lieu à des illusions, par exemple faire juger comme inégales des longueurs objectivement égales fig. 6.

De la même façon, l'affaiblissement de l'intensité n'est pas un indice suffisant pour évaluer la distance d'une source sonore, dans la mesure où nous ignorons l'intensité qu'elle émet : le son d'une radio ne paraît pas s'éloigner si nous diminuons l'amplification. En revanche, on peut donner l'impression qu'une source sonore s'éloigne s'il existe une réverbération. La réverbé-ration est évidente dans une salle très résonnante, mais même faible sa présence nous aide à jauger la distance d'une source sonore : si une source émettant à intensité constante s'éloigne de l'auditeur, l'énergie du son direct qu'elle envoie diminue, mais le son réverbéré reste approximativement constant. Ainsi notre oreille, évaluant inconsciemment l'importance relative des sons direct et réverbéré, tient compte d'une véritable perspective auditive. De plus, si la source se déplace par rapport à l'auditeur, sa fréquence apparente augmente si elle se rapproche et diminue si elle s'éloigne, en vertu de l'effet Doppler. C'est d'ailleurs avec des musiciens du conservatoire de Vienne que Doppler a effectué ses premières expériences sur l'effet qui porte son nom. Dans les années 1960, John Chowning de l'université Stanford a simulé la perspective auditive et l'effet Doppler pour réaliser des sons de synthèse donnant des illusions convaincantes de mouvement : dans ses musiques « cinétiques », qui utilisent simplement quatre, voire deux haut-parleurs fixes, les sons paraissent se rapprocher, s'éloigner, virevolter autour de l'auditeur, et décrire des trajectoires que l'oreille peut « voir » avec une précision quasi graphique.

En 1964, aux Bell Laboratories, Roger Shepard a synthétisé par ordinateur douze sons formant les intervalles d'une gamme chromatique, mais paraissant monter indéfiniment lorsqu'ils sont répétés. J'ai généralisé cette illusion, homologue à l'escalier indéfini de Penrose. Egalement aux Bell Laboratories, j'ai produit des sons paraissant glisser indéfiniment vers le grave ou vers l'aigu, et des gammes qui paraissent descendre mais aboutissent pourtant à un point plus haut, à l'image de la cascade paradoxale d'Escher.

On voit que la hauteur d'un son est un attribut composé Ñ avec un aspect grave-aigu et un aspect circulaire comme do-si-la-sol-fa-mi-ré-do. Dans les sons normaux, ces aspects varient de façon concomitante, mais ils peuvent être dissociés en contrôlant séparément les fréquences des composantes et l'enveloppe spectrale qui détermine leur amplitude.

« Les illusions, erreurs des sens, sont des vérités de la perception » disait le physiologiste Purkinje : elles révèlent certains mécanismes qui nous permettent d'extraire des formes significatives à partir des données des sens. Au laboratoire de Mécanique et d'Acoustique à Marseille, j'ai pu synthétiser des sons qui paraissent baisser si l'on double toutes les fréquences qui les constituent, ou qui semblent ralentir si l'on double la vitesse de défilement de la bande magnétique. Ces démonstrations ne sont pas de simples truquages ou curiosités sur les imperfections des sens : elles montrent que les formes, reconstruites par notre esprit à partir des données des sens, donnent lieu à des relations qui ne sont pas forcément similaires ou « isomorphes » aux relations entre les aspects mesurables des objets physiques. Les formes sonores que nous percevons sont mentales, elles dépendent de notre être interne et pas seulement des sons que nous captons.

Depuis la dernière guerre mondiale, les travaux du psychologue américain James Gibson, complétés et nuancés par de nombreuses recherches sur la cognition, ont aidé à comprendre nombre d'idiosyncrasies singulières de la perception : leur raison d'être est non pas de mesurer les paramètres physiques des signaux que reçoivent les sens Ñ fréquence, intensité par exemple Ñ mais plutôt de tirer de ces signaux le plus possible d'informations fiables sur l'environnement. Sous la pression de la sélection naturelle, l'évolution des espèces a abouti à un fonctionnement perceptif de plus en plus performant à cet égard. Ainsi distinguons-nous sans hésitation un son émis avec intensité par une source lointaine d'un son doux émis par une source proche, même si l'oreille reçoit dans les deux cas une énergie équivalente.

Aucun dispositif de mesure ne peut égaler l'oreille dans ce genre de tâche. L'audition a évolué pendant des millénaires dans un monde où les sons étaient produits mécaniquement, et c'est avec des sons acoustiques qu'elle atteint ses meilleures performances, mais les enquêtes qu'elle réalise sur la genèse du son fonctionnent « à faux » avec des sons produits électroacoustiquement ou numériquement. L'oreille tend à classer les sons suivant des catégories issues de son expérience acoustique Ñ sons percussifs, frottés, soufflés, percussion de peaux, de bois ou de métal Ñ et cela même avec des sons calculés, produits sans intervention d'actions mécaniques ou de matériaux spécifiques. C'est ainsi que l'on peut évoquer des formes « virtuelles », purement phénoménales8.

Il y a complémentarité entre vision et audition pour percevoir le monde qui nous entoure, et les formes sonores qu'extrait l'audition sont confrontées avec les formes visibles. Par la seule écoute, on peut se former une certaine idée de l'espace, mais lorsque cet espace n'est pas conforme à l'espace visuel, les indices visuels, plus robustes, tendent à dominer et à masquer les indices auditifs contradictoires : seeing is believing . Dans certains cas, on a pu noter une altération des indices visuels par les indices auditifs. En revanche, une concordance d'indices issus de différentes modalités sensorielles tend à renforcer l'emprise de la scène perçue. Au-delà du ballet et de l'opéra, les artistes ont toujours rêvé d'une forme d'art « totale » mettant les cinq sens à contribution. Qu'il s'agisse d'art, d'image ou de son, ces créations ont en tout cas un point commun : la forme tient moins à ses éléments constitutifs qu'à la disposition de ces éléments et à leurs interrelations.

 

DOCUMENT     larecherche.fr    LIEN

UN ORGANISME UNICELLULAIRE CAPABLE D'APPRENDRE

04/06/2016

Paris, 27 avril 2016
Un organisme unicellulaire capable d'apprendre

Pour la première fois, des chercheurs viennent de démontrer qu'un organisme dépourvu de système nerveux est capable d'apprentissage. Une équipe du Centre de recherches sur la cognition animale (CNRS/Université Toulouse III – Paul Sabatier) a réussi à démontrer qu'un organisme unicellulaire, le protiste Physarum polycephalum, est capable d'une forme d'apprentissage nommée habituation. Cette découverte permet d'éclairer l'origine de la capacité d'apprentissage durant l'évolution, avant même l'apparition du système nerveux et du cerveau. Elle pourrait également amener à s'interroger sur la capacité d'apprentissage d'autres organismes extrêmement simples comme les virus et les bactéries. Ces résultats sont publiés dans la revue Proceedings of the Royal Society B le 27 avril 2016.
La capacité d'apprentissage et la mémoire sont des éléments clés dans le monde animal. Tirer des leçons de ses expériences et adapter son comportement en conséquence est vital pour un animal qui vit dans un environnement fluctuant et potentiellement dangereux. Cette faculté est généralement considérée comme l'apanage d'organismes dotés d'un cerveau et d'un système nerveux. Pourtant les organismes unicellulaires doivent eux aussi s'adapter au changement. Manifestent-ils des capacités d'apprentissage ? Des bactéries ont certes une faculté d'adaptation, mais elle se produit sur plusieurs générations et relève donc plutôt de l'évolution. Une équipe de biologistes a donc cherché à apporter la preuve qu'un organisme unicellulaire pouvait apprendre. Ils ont choisi d'étudier le protiste Physarum polycephalum, une cellule géante qui vit dans les sous-bois1 et fait preuve d'étonnantes aptitudes, telles résoudre un labyrinthe, éviter des pièges ou optimiser sa nutrition2. Mais on savait très peu de choses jusqu'à présent sur sa capacité d'apprentissage. 

Lors d'une expérience de neuf jours, les scientifiques ont donc confronté différents groupes de ce protiste à des substances amères mais inoffensives, qu'ils devaient traverser afin d'atteindre une source de nourriture. Un groupe était ainsi confronté à un « pont » imprégné de quinine, un autre à un pont de caféine tandis qu'un groupe témoin devait simplement passer sur un pont non imprégné. Au tout début réticents à franchir les substances amères, les protistes ont appris au fur et à mesure des jours qu'elles étaient inoffensives et les ont traversées de plus en plus rapidement, se comportant au bout de six jours de la même façon que le groupe témoin. La cellule a donc appris à ne plus craindre une substance inoffensive après y avoir été confrontée à plusieurs reprises, un phénomène que les scientifiques nomment habituation. Au bout de deux jours sans contact avec la substance amère, le protiste retrouve son comportement initial de méfiance. Par ailleurs, un protiste habitué à la caféine manifeste un comportement de défiance vis-à-vis de la quinine, et inversement. L'habituation est donc bien spécifique à une substance donnée.

L'habituation est une forme d'apprentissage rudimentaire qui a été caractérisée chez l'aplysie (un invertébré aussi appelé lièvre de mer)3. Cette forme d'apprentissage existe chez tous les animaux, mais n'avait encore jamais été trouvée chez un organisme dépourvu de système nerveux. Cette découverte chez un protiste, lointain cousin des plantes, champignons et animaux, apparu sur Terre environ 500 millions d'années avant l'homme, permet de mieux comprendre les origines de l'apprentissage, qui précède de loin celles des systèmes nerveux. Elle ouvre également la possibilité de rechercher des types d'apprentissage chez d'autres organismes très simples comme les virus ou les bactéries.

 

DOCUMENT         cnrs        LIEN  

ÉMOTION ET MÉMOIRS ...

29/05/2016

Privée d'émotions, la mémoire flanche
la mémoire et l'oubli - par Martine Meunier dans mensuel n°344 daté juillet 2001 à la page 82 (1969 mots) | Gratuit
Emotions et souvenirs se forment dans la même partie du cerveau. Mais l'impact de cette découverte a été négligé durant le XXe siècle. Leurs relations commencent seulement à être étudiées grâce à l'émergence des neurosciences affectives.

Nos émotions jouent un rôle essentiel dans notre mémoire autobiographique. Mais l'étude des mécanismes cérébraux qui les gouvernent a longtemps été négligée par les neurosciences. Toute émotion affecte simultanément notre corps, notre comportement, nos sentiments et notre mémoire. Autant d'aspects difficiles à mesurer objectivement et à évaluer simultanément. Face à une même situation, les réponses émotionnelles varient en fonction de l'individu, de son tempérament et de son environnement physique et social. Une versatilité qui complique encore leur évaluation.

A la fin du XIXe siècle, Sigmund Freud attribuait pourtant aux émotions une influence déterminante dans le développement des individus. Le psychologue William James soulignait déjà leur importance pour le bon fonctionnement de la mémoire . « Se souvenir de tout serait aussi fâcheux que ne se souvenir de rien », insistait-il. Le cerveau doit effectuer une sélection. Il le fait en fonction de la valeur affective qu'un événement revêt pour nous. Tout au long du XXe siècle, les émotions ont conservé une place centrale au sein de la psychologie. En revanche, la compréhension de leur organisation cérébrale ne s'est imposée comme un enjeu majeur pour les neurosciences qu'au cours de ces dernières années. Cette lente évolution est bien illustrée par l'histoire de nos connaissances de deux régions présentes dans chaque hémisphère du cerveau, les lobes frontal* et temporal*. Découverte vers le milieu du XIXe siècle, leur importance pour les émotions n'a longtemps suscité qu'un intérêt marginal. A l'opposé, leur implication dans la mémoire, identifiée plus tard, a immédiatement suscité un nombre considérable de travaux.

Dès 1848, John Harlow, médecin d'une petite ville de l'Est américain, décrivait le cas spectaculaire de Phineas Gage voir l'encadré : « Comment la barre de Phineas Gage révéla le rôle du lobe frontal » et remarquait le rôle des lobes frontaux dans le contrôle des émotions. Mais la localisation cérébrale des fonctions mentales, idée largement acceptée aujourd'hui, suscitait alors de vives controverses. Elle ne s'imposera lentement qu'après la démonstration, dans les années 1860-1870, du rôle de certaines aires de l'hémisphère gauche dans le langage. En 1848, le cas de Phineas Gage fut donc plutôt perçu comme un encouragement pour la neurochirurgie balbutiante du moment. Il s'avérait en effet possible d'ôter une grosse portion du cerveau en cas de tumeur par exemple sans provoquer la mort, ni altérer aucune des fonctions psychologiques « majeures », perception, motricité, langage, intelligence, ou mémoire. Dans les décennies qui suivirent, la neurochirurgie fit d'énormes progrès, aidée, paradoxalement, par la Première Guerre mondiale et ses nombreux blessés. Le cas de Phineas Gage ne fut plus guère évoqué dans la littérature médicale. Le lobe frontal fascinait les chercheurs de la première moitié du XXe siècle, mais en tant que siège des fonctions intellectuelles « supérieures » spécifiques aux primates. Cette région du cerveau est en effet si développée chez l'homme qu'elle occupe à elle seule un tiers du cortex.

Lobotomies frontales. Lors du 2e Congrès international de neurologie, à Londres, en 1935, le neuropsychologue Carlyle Jacobsen et le neurochirurgien John Fulton présentèrent leurs travaux sur les effets d'une ablation des lobes frontaux chez des chimpanzés. Placées face à deux coupelles identiques, les deux femelles opérées, Becky et Lucy, étaient incapables de retrouver laquelle dissimulait une friandise, bien que la récompense ait été cachée sous leurs yeux quelques secondes auparavant seulement. Cette étude pionnière ouvrit la voie vers la compréhension des relations entre lobe frontal et mémoire. Jacobsen et Fulton mentionnèrent également des changements surprenants de comportement chez les animaux opérés. Lucy, à l'origine calme et tempérée, devint plus coléreuse et violente. A l'inverse, Becky, irascible avant l'opération, semblait d'une indéfectible bonne humeur après. Bien qu'apportant une nouvelle preuve du lien entre lobe frontal et émotions, ces anecdotes eurent peu de répercussions sur la recherche fondamentale. Le cas de Becky eut, en revanche, une conséquence inattendue en psychiatrie. Le neurologue portugais Egas Moniz allait, dès son retour du congrès de Londres, pratiquer des lobotomies frontales chez des patients psychotiques. Ainsi naquit la psychochirurgie, thérapeutique audacieuse consistant à ôter une partie du cerveau pour traiter les maladies mentales.

En dépit de ses effets secondaires, ce traitement radical allait rapidement être appliqué à des milliers de patients dans le monde entier. Et même valoir un prix Nobel à Moniz en 1949, avant que son usage abusif ne lui fasse une sinistre réputation, et que l'arrivée des neuroleptiques dans les années 1950 ne le rende obsolète1. Le cortex préfrontal ou partie avant du lobe frontal, celle qui fut touchée chez Gage, cible des lobotomies, allait cependant rester la structure la moins bien connue du cerveau jusque dans les années 1970 ! Les nombreux travaux suscités par les déficits d'apprentissage rapportés par Jacobsen et Fulton établiront seulement après cette date le rôle de la partie latérale du cortex préfrontal dans la mémoire de travail, celle qui nous permet de garder en tête une information, un numéro de téléphone par exemple, juste le temps de l'utiliser.

Inadaptation émotionnelle. En ce qui concerne les lobes temporaux, les premiers indices de leur implication dans les émotions remontent à des observations faites en 1888. Mais ils tombèrent dans l'oubli jusqu'à la découverte du psychologue Heinrich Klüver et du neurologue Paul Bucy de l'université de Chicago en 1938. Etudiant des singes porteurs de lésions des lobes temporaux, ces auteurs furent surpris par les comportements émotionnels inadaptés de ces animaux. Ils approchaient, manipulaient ou portaient à la bouche, de façon compulsive, tout ce qu'on leur présentait. Ils paraissaient également ne plus ressentir aucune peur, même face à un serpent. Une attitude qui leur aurait été fatale dans leur milieu naturel. En 1956, on établit que ce syndrome, dit de Klüver et Bucy, est principalement dû à l'atteinte de la région antérieure de la partie médiane du lobe temporal, celle qui contient l'amygdale2, une petite structure en amande. On ne s'interrogera plus guère ensuite sur les fonctions exactes des lobes temporaux pour les émotions. Car commence alors la saga, toujours d'actualité, de leurs relations avec la mémoire.

En 1957 et 1958, la psychologue Brenda Milner de l'institut neurologique de Montréal décrit les cas dramatiques de patients devenus amnésiques à la suite d'une ablation chirurgicale de l'un ou des deux lobes temporaux. Elle a observé cet effet inattendu chez quatre patients, deux parmi les trente opérés par William Scoville aux Etats-Unis, et à nouveau deux parmi plus de quatre-vingt-dix patients opérés par Wilder Penfield au Canada. La postérité retiendra l'un d'entre eux, qui deviendra célèbre sous les initiales H.M. Une large partie de nos connaissances actuelles sur l'organisation cérébrale de la mémoire repose sur lui. En 1953, ce jeune homme de 27 ans subit une ablation des deux lobes temporaux pour ôter le foyer d'une épilepsie très invalidante et rebelle à tout traitement médicamenteux. L'opération soulagea l'épilepsie. Mais elle provoqua une amnésie profonde qui perdure aujourd'hui.

Hippocampe. Depuis près de cinquante ans maintenant, H.M. oublie au fur et à mesure tous les événements de sa vie quotidienne. Or sa lésion, contrairement à celle de la plupart des patients opérés en même temps que lui, s'étendait au point d'inclure non seulement l'amygdale, mais aussi une large portion de l'hippocampe. Ainsi découvrait-on que l'hippocampe, dont la fonction était jusqu'alors inconnue, était en fait nécessaire pour la formation des souvenirs nouveaux. Cette découverte allait motiver un nombre considérable de travaux expérimentaux. Un intense effort qui a abouti aujourd'hui à une remarquable connaissance des bases cérébrales de la mémoire épisodique et sémantique, celles, respectivement, des événements personnellement vécus et des connaissances générales sur le monde.

En revanche, H.M. n'a jamais été l'objet d'une évaluation approfondie sur le plan émotionnel. Seules quelques anecdotes ont été rapportées à son sujet qui suggèrent un appauvrissement émotionnel, différent mais néanmoins proche de celui des singes de Klüver et Bucy, après le même type de lésion. En dehors de quelques accès d'irritabilité, H.M. a en effet été décrit d'une humeur étonnamment placide, parlant sur un ton monotone, et témoignant d'une résistance inhabituelle à la douleur, la faim ou la fatigue.

Les émotions sont aujourd'hui l'objet d'un intérêt grandissant en neurosciences, comme en témoigne la croissance exponentielle des publications dans ce domaine depuis la fin des années 1990. Ce rebondissement s'explique par la convergence d'au moins trois facteurs. En premier lieu, l'essor des neurosciences cognitives, tout au long du XXe siècle, a considérablement accru notre savoir sur le cerveau, fournissant ainsi les bases indispensables pour aborder la complexité des phénomènes affectifs. En second lieu, des perspectives entièrement nouvelles ont émergé grâce à de récents progrès techniques. Notamment, l'imagerie fonctionnelle nous donne aujourd'hui la possibilité de voir le cerveau humain normal en action, alors qu'autrefois nous devions nous contenter des indices fournis par le cerveau lésé. Enfin, plusieurs chercheurs contemporains, ouvrant la voie des neurosciences affectives, ont su réactualiser l'idée ancienne selon laquelle les émotions sont en réalité la cheville ouvrière du bon fonctionnement de nombre de nos facultés, adaptation sociale, raisonnement, prise de décision, ou mémoire. Les neurosciences affectives offrent déjà un aperçu des mécanismes cérébraux qui gouvernent l'influence des émotions sur la mémoire.

Les travaux actuels concernent principalement les deux amygdales situées chacune à l'avant de la partie médiane du lobe temporal. Chez le rat, différentes équipes dont celles de Michael Davis à Yale et de Joseph LeDoux à New York, ont réussi à démonter la machinerie complexe qui contrôle les peurs conditionnées3. Il s'agit de ce phénomène, commun à nombre d'espèces, de l'escargot de mer à l'homme, par lequel un stimulus neutre associé à un événement désagréable acquiert ensuite le pouvoir de déclencher à lui seul une réaction de peur. Parmi les différents noyaux composant l'amygdale, le noyau latéral reçoit des informations des régions sensorielles comme le cortex visuel. Il les transmet au noyau central relié aux centres cérébraux qui déclenchent les réactions dites autonomes, comme l'accélération du rythme cardiaque. Ce circuit assure l'apprentissage des peurs conditionnées. Il influence des structures voisines comme l'hippocampe qui restituent les souvenirs liés à ces peurs.

Imagerie fonctionnelle. Les expériences chez le rongeur ont ouvert la voie à l'exploration du comportement plus riche des primates. Chez le singe, la destruction sélective des seules cellules des amygdales suffit à perturber l'utilisation de l'ensemble du savoir émotionnel et social des animaux4. Chez l'homme, leur importance pour la mémoire émotionnelle a été particulièrement bien démontrée par une étude utilisant l'imagerie fonctionnelle par TEP5 Tomographie par émission de positons, voir l'article de Francis Eustache. Le neuropsychologue Larry Cahill et ses collègues de l'université de Californie ont mesuré l'activité du cerveau de huit volontaires pendant qu'ils regardaient des documentaires relatant soit des événements neutres, soit des images très négatives de crimes violents, par exemple. Trois semaines plus tard, les sujets se souvenaient beaucoup mieux des films négatifs que des films neutres, reflétant l'amélioration de la mémoire par les émotions. Mais le résultat important était le suivant : plus l'amygdale située du côté droit du cerveau avait été active pendant la présentation des films, meilleurs étaient les souvenirs des films négatifs. A l'inverse, l'activité de cette amygdale ne prédisait en rien la qualité des souvenirs pour les films neutres. Cette étude fournit donc la preuve d'un lien entre l'activité de l'amygdale droite pendant l'encodage d'informations riches en émotions et leur rétention ultérieure.

En accord avec cette conclusion, les patients dont l'amygdale a été endommagée présentent une mémoire correcte mais insensible à l'effet accélérateur des émotions. A l'inverse, cet effet reste présent chez les amnésiques dont l'amygdale est intacte, ainsi que chez les personnes atteintes de la maladie d'Alzheimer. Ces patients oublient moins les événements à forte connotation émotionnelle que les autres. Une découverte qui pourrait se révéler utile pour améliorer le soutien quotidien apporté à ces malades.

Par Martine Meunier

MÉMOIRE ...

22/05/2016

Comment la littérature réinvente la mémoire


la mémoire et l'oubli - par Claude Burgelin dans mensuel n°344 daté juillet 2001 à la page 78 (3317 mots)
Par définition, l'écriture est mémoire, conservation de traces, défi de la mort. Dans le sillage tumultueux de la Seconde Guerre mondiale, nombre d'écrivains français, de Georges Perec à Patrick Modiano, Claude Simon ou Nathalie Sarraute, ont renouvelé cet art ancestral. Leurs oeuvres dévoilent à quel point la mémoire humaine est pillarde, tricheuse et voleuse impénitente.

Plus que jamais, la mémoire anime la scène littéraire. Depuis deux ou trois décennies, de nombreux textes, souvent parmi les plus achevés, ont été écrits par des auteurs qui tournaient la tête vers la gauche, vers le passé. Mais la plupart de ces écrivains ne se sont pas contentés de faire oeuvre de mémorialistes au sens traditionnel du mot. Puisque la mémoire en son plus intime est liée au langage, aux images liées à des mots, ils ont été ainsi amenés à interroger le fonctionnement même de la mémoire, ses limites et ses pouvoirs, sa capacité à transformer ou à structurer, et même ses aptitudes créatrices. La littérature a eu ici une fonction heuristique. Elle a permis d'élargir le champ de la mémoire, d'en ouvrir les frontières et presque de renouveler le sens même du mot.

Question de survie. Cette présence polymorphe des écritures de la mémoire a entre autres origines les violences de l'Histoire contemporaine et les traumatismes qu'elles ont laissés. Se sont ainsi multipliées les histoires d'errances et d'exils Europe de l'Est, anciennes colonies, etc., souvent dramatiques, chaque fois différentes. Le génocide des Juifs avait été programmé pour être un anéantissement de la mémoire - et c'est ce qu'ont vécu bien des survivants. Les fractures ont été cassures des liens familiaux, mais aussi ruptures des liens culturels et des transmissions symboliques. Toutes sortes de fils de la mémoire ont été coupés. Pour certains, il s'agissait - ce pouvait être une question de survie - de trouver par les mots les moyens de remplacer les paroles et les langages symboliques qui n'ont pu être légués.

L'histoire de Georges Perec est de ce point de vue éloquente. Ses parents sont des Juifs d'origine polonaise. Son père est tué en 1940 lorsqu'il a quatre ans. En 1941 ou 1942, le petit Georges part avec un convoi de la Croix-Rouge dans le Vercors. Sa mère l'accompagne à la gare de Lyon : il ne la reverra plus. Prise dans une rafle, elle périt à Auschwitz en 1943. De 1942 à 1945, il se vit comme un enfant perdu, sans repère dans l'espace et dans le temps ; les liens de parenté lui paraissent incompréhensibles ; tout se passe comme s'il n'avait plus d'identité, plus d'intériorité.

Un de ses symptômes sera désormais de ne plus avoir de mémoire de son enfance. Comme si, avec la disparition de sa mère, avaient disparu aussi les souvenirs de l'enfant qu'il fut auprès d'elle. Le texte autobiographique qu'il publie en 1975, W ou le souvenir d'enfance , met en scène de manière précise et saisissante cette destruction de la mémoire et sa reconstruction. Dans la première moitié du livre, Perec rassemble et analyse tous les souvenirs qu'il a gardés de ses premières années et tous les fantasmes qu'il a élaborés autour des très rares photos ou témoignages qu'il a pu recueillir. Il montre que tous sont marqués d'erreurs ou d'évidentes distorsions. La mémoire qu'il croit avoir n'est faite que de bribes de mythes et de légendes qu'elle s'est fabriquées. Et surtout rien ne lui rendra le souvenir d'enfance fondamental qui lui fait défaut : la souvenance de sa mère. S'il a quelques images du moment de la séparation d'avec elle, s'il se souvient peut-être de sa présence, lui font défaut les souvenirs de son visage, de sa voix, de l'enfance qu'il eut à ses côtés.

Hypermnésie. A cette perte de la mémoire Perec va réagir en devenant hypermnésique. Comme pour faire pièce à ce blanc, sa mémoire enregistre dorénavant tout ce qui lui paraît faire signe et sens. Elle se repaît de données de toute sorte, notamment de noms propres listes de noms de sportifs comme noms de lieux ou de personnages historiques, etc.. Comme si, après avoir tout perdu, sa mémoire devait désormais ne plus rien laisser disparaître. Cette mémoire hypertrophiée s'exerce surtout pour ce qui concerne les noms, les lieux, les temps, et tout ce qui aide à constituer des archives : livres, films, textes divers. Elle lui sert dès lors de substrat d'une identité de remplacement. Cette mémoire à la fois personnelle lui seul a tant emmagasiné et impersonnelle rien de plus anonyme que des listes de noms..., il la transforme par l'écriture en un terrain de jeux, de recherches et d'échanges, et fait de la mémoire un lieu de rencontres. De jardin privé, elle devient place publique.

Son Je me souviens est à cet égard exemplaire. 480 fois, il décline la phrase « je me souviens de... » en la faisant suivre d'un nom propre, d'un événement médiatique, d'un refrain, de l'intitulé d'une émission de radio, d'un slogan publicitaire, du titre d'un manuel scolaire : incandescences d'un instant, pétillements éphémères de l'histoire immédiate, fragmenticules de ce qui fait la chronique quotidienne venus s'inscrire sans qu'on le veuille au vif de notre mémoire alors même que nous ne savons pas toujours garder en nous des souvenirs de moments autrement plus impliquants.... Cette litanie de souvenirs fait immanquablement venir aux lèvres un « moi aussi... ». Et si les souvenirs d'un homme né en 1936 ne peuvent être ceux de qui est né bien après, la manière de faire de Perec indique une politique et presque une éthique de la mémoire : ces menus débris, ce ramassis hétéroclite de noms de gangsters et de sportifs, de chanteurs et d'hommes politiques, de titres de films ou d'émissions de variétés constituent pour nous des pilotis de la mémoire, signent notre façon d'avoir été latéralement contemporains de l'histoire et sont source d'un plaisir partagé de la réminiscence. Ainsi, tout en restant, consciemment ou non, lieu du traumatisme, la mémoire devient également composante d'une sorte de bonheur discret du souvenir. D'autant plus que nous sont proposées par de tels biais des stratégies actives par rapport à la mémoire. On peut par exemple ne pas attendre qu'elle fasse passivement son travail de passoire. Quand Perec rédige sa Tentative d'inventaire des aliments liquides et solides que j'ai ingurgités pendant l'année 1974 , il s'astreint à dresser chaque jour la liste de tout ce qui a constitué ses repas. Suit un bilan cocasse et vaguement inquiétant de ce qu'un Occidental quelconque peut engloutir en une année. Un mémorial de l'infime, mais qui peut devenir socle d'une mémoire. Car la mémoire n'a pas à jouer les grandes dames : elle se nourrit de tout, à commencer par ce à quoi nous ne prêtons qu'une attention distraite ou discrète. Dans Espèces d'espaces , « journal d'un usager de l'espace », Perec inventorie ceux, intimes ou publics, que nous arpentons et traversons. Puisque l'espace est de moins en moins un lieu de mémoire, que les repères sont de plus en plus instables, il importe plus que jamais de s'en faire par l'attention du regard et par la trace écrite le mémorialiste, le greffier.

Depuis la nuit des temps, pour retenir des traces, pour étayer leur mémoire, les humains ont utilisé le graphe, la lettre, le nombre. Perec est devenu un virtuose de l'association des lettres et des nombres écrivant ainsi un roman, La Disparition , sans jamais utilis e r la voyelle e, chiffrant secrètement presque tous ses textes, y engrammant des nombres 43, par exemple, date de la mort de sa mère, offrant ainsi une sorte d'architecture invisible à sa mémoire évidée. Et, paradoxe des transmissions inconscientes, il renoue par là avec quelque chose de l'univers de la Kabbale ou du talmudisme judaïque. Ses jeux avec le mémoriel lui font retrouver les ombres de la mémoire de ses ancêtres1.

Tombeau de mots. Comment garder le souvenir de celui ou de celle dont on n'a pas gardé mémoire ? Un autre écrivain français a tenté de répondre à cette question en forme de paradoxe. Un jour des années 1980, Patrick Modiano tombe sur une annonce parue dans le numéro de Paris-Soir du 31/12/1941 signalant la disparition d'une jeune fille de quinze ans, nommée Dora Bruder et donnant l'adresse de ses parents. A partir de cette simple indication, Modiano se met en quête de Dora Bruder et de son destin. Sa patiente traque lui fait retrouver les données d'état civil concernant Dora et ses parents, des Juifs immigrés, les lieux où elle a vécu, le pensionnat où elle a été cachée. De sa personne nul aujourd'hui ne semble se souvenir. Elle et ses parents ont péri à Auschwitz. Leur mémoire est partie en fumée avec eux. Rien ne reste d'eux que leurs noms... Demeurent pourtant quelques-uns des magasins que Dora a pu voir, les stations où elle prenait le métro, les boulevards qu'elle arpentait, la caserne des Tourelles où elle fut enfermée avant Drancy. Peu à peu, au travers de ces minutieux repérages d'adresses et de lieux précis, se dessine en creux le fantôme de Dora Bruder. Cette enquête patiente et acharnée vient se nourrir de toutes sortes de rappels de mémoire pour l'auteur. La mémoire de Modiano vient donner des contours à celle à jamais disparue de Dora Bruder sans pour autant venir se substituer à elle. Et alors même que la folie nazie a tout fait pour que la mémoire d'un être d'aussi peu d'importance sociale que Dora Bruder disparaisse à jamais, la quête et le récit de Modiano lui donnent à la fois une mémoire symbolique - un tombeau de mots, l'équivalent de l'inscription d'un nom sur une tombe -, et sinon une mémoire charnelle et vive, l'ombre ou le fantôme de cette mémoire2.

Des « gens de peu » sont aussi les héros des Vies minuscules , de Pierre Michon, qui a choisi de raconter les vies de huit personnages ayant, d'une façon ou d'une autre, croisé sa route. Parfois dans la réalité - camarades de lycée ou voisin de lit à l'hôpital -, parfois dans la mémoire, pour ne pas dire dans la légende - récits indécis transmis concernant un ascendant ou même des figures plus lointaines3. Tous ces êtres ont en commun d'avoir été des losers , issus presque tous des mêmes confins reculés du massif Central la Creuse, et d'avoir des destins qui les vouent à l'oubli et au silence. A ceux qui furent ainsi des êtres du bas-côté Pierre Michon redonne vie et, par la noblesse des mots, un relief et une sorte d'éclat. Mais ce faisant, ce sont, par métaphore, les linéaments de sa propre mémoire qu'il dessine. Si son récit touche çà et là à l'autobiographie, c'est là encore cette mémoire des autres et de leur destinée de perdants qui vient donner comme une étoffe à la sienne.

Mémoire d'autrui. On en vient ici à une des données à la fois limpides et énigmatiques que mettent au jour ces écritures de la mémoire. Si la mienne défaille, ne peut ou ne veut se dire, celle d'autrui peut venir la relayer ou s'y substituer. Des mémoires différentes peuvent lui donner des contours. La mémoire d'autrui peut s'emprunter, les signes de son passé représenter les miens. Dans ce cas, le travestissement s'affiche. Mais la démarche est sans doute tout aussi rigoureuse que celle qui consiste à présenter comme miens des souvenirs faits de bribes de mythes, de on-dit divers, d'emprunts inconscients aux souvenirs et aux signifiants des autres. Si « je est un autre », il y a là une façon d'aller au bout de cette logique. Dans Ellis Island , Perec, à partir d'une enquête et d'un film sur le musée new-yorkais de l'émigration, évoque à travers ce « lieu de l'absence de lieu » un centre de triage sur un îlot, un lieu de transformation des identités la mémoire de ces exilés4. En rappelant ce que purent être leurs histoires, il tente de cerner sa propre identité de juif, d'homme rattaché à nulle part, son absence de repères ou de racines. La mémoire des émigrants d'Ellis Island n'est pas la sienne, mais il peut, grâce à elle, dire la sienne - ou plutôt ce qu'il ne saurait dire autrement de la sienne.

Ainsi ce que nous rappellent Perec et bien d'autres, c'est que la mémoire est une pillarde, une voleuse et une tricheuse. La mémoire qu'il n'a plus, Perec se la reconstruit en l'empruntant à celle des auteurs qu'il a lus et relus. Ceux dont il s'est approprié les mots et les formules Flaubert, Roussel, Kafka, Queneau, Leiris, etc. deviennent comme l'humus de sa mémoire - et donc de son identité. Ma mémoire n'est donc peut-être pas mon bien propre, ce coffre-fort mal clos où seraient enfermés mes souvenirs, d'autant plus précieux qu'ils seraient à moi et à personne d'autre. Cette vision naïve d'une mémoire autarcique et repliée sur elle-même, bien des textes actuels la mettent à mal.

Pilotis paternels. A utobiographie de mon père : le titre même du livre de Pierre Pachet affiche la contradiction5. Ce père est lui aussi un juif émigré venu d'Europe de l'Est, et son histoire, une fois de plus, est faite de cassures et de pertes. Une de ses caractéristiques fut d'avoir été passablement silencieux et retenu dans l'expression de ses affects. Le récit de Pachet va lui donner la parole tout en respectant son besoin de la discrétion et de la réserve. La mémoire qu'il n'a que sobrement transmise, son fils se bornera à l'éclairer, à en indiquer les arrière-fonds : il transmet l'univers de signes de son père en en indiquant des traductions possibles. Tout cela transite par la mémoire de ce fils qui, en le faisant ainsi parler, donne à entendre comment sa mémoire est venue donner des pilotis, des arrière-cours et peut-être une couleur à la sienne.

L'entreprise la plus ambitieuse, à l'architecture et à l'orchestration singulièrement puissantes, est celle que mène à bien depuis vingt ans Claude Simon. Les Géorgiques , L'Acacia , Le Jardin des Plantes et, tout récemment, Le Tramway 2001 semblent avoir pour puissance organisatrice la mémoire6. Les Géorgiques font se superposer et s'intriquer trois histoires, celle d'un ancêtre, ex-conventionnel devenu général d'Empire, celle d'un combattant des milices populaires dans l'Espagne de 1937 lui-même, mais aussi George Orwell..., celle du soldat de 1940 qu'il fut, battant en retraite devant l'ennemi. Les histoires s'entrelacent, les tragédies se répètent, une même mémoire reprend ces événements, en fait une chambre d'échos multiples. L'Acacia crée un réseau de correspondances et d'amalgames subtils entre l'histoire du père tué en 1914 et celle de son fils frôlant la mort au printemps 1940 - comme si une seule mémoire venait brasser ces images d'époques différentes. Le Jardin des Plantes se présente comme le « portrait d'une mémoire » : c'est un texte en mosaïque, fait de fragments, d'arêtes, de menues pulvérulences ; les souvenirs savamment juxtaposés d'impressions et de sensations de toute sorte et de tout âge de la vie dessinent l'histoire d'une existence. Tout l'art de Claude Simon consiste à savoir faire architecture de cet amoncellement d'infimités, d'instantanés fixés, qui semblerait ne connaître comme ordre que celui de la dispersion. Et ses phrases, aux arborescences incroyablement ramifiées, dessinent cette trame complexe dans laquelle vient prendre forme « l'impalpable et protecteur brouillard de la mémoire » .

Toute cette constellation de textes de natures et d'inspirations différentes laisse voir combien l'imagination ne cesse d'élaborer et de réélaborer la mémoire, la métamorphosant subtilement par ajouts, oublis, superpositions. Freud a montré que l'inconscient à l'oeuvre dans nos rêves, fantasmes et souvenirs construisait ses figures par condensation ou déplacement, par métaphore ou par métonymie. Notre mémoire fait de même : elle s'approprie des histoires arrivées à d'autres, des fragments de légendes ou de mythes, des images de toute sorte. Elle en fait son miel particulier, mêlant incessamment, et bien sûr à son insu, le vrai et le faux, l'exactitude et la fable. Elle apparaît ainsi comme un espace de création au même titre que d'autres.

La mémoire vive de la langue, la plus archaïque et la mieux imprimée en nous, est liée à cet univers de rythmes et de sonorités, d'images acoustiques très anciennement engrammées comme de mises en structures aux formes plus ou moins fixes cf. en français, l'alexandrin ou le système de la rime. C'est ce rapport à la poésie, à la berceuse, au refrain, à la litanie, à la répétition envoûtante ou apaisante qui donne à la mémoire son terreau fondamental, celui sur lequel viendront se greffer les connaissances abstraites et la mise en ordre intellectuelle du monde. Ce terreau est celui que la littérature vient labourer. L'art du manieur de phrases qu'est l'écrivain est de savoir faire vibrer cet en-deçà des mots, de venir l'inscrire dans sa façon même d'organiser le sens.

Labyrinthe verbal. Toute écriture qui part vraiment à la recherche de ses arrière-fonds pétrit cette pâte verbale d'avant la mémoire organisée et qui pourtant la fonde. Serge Doubrovsky La Dispersion , Fils , Un amour de soi , etc. a construit autour de son existence un immense labyrinthe verbal7. Et, pour mener à bien ce projet autobiographique, il confie ce qu'il appelle « le langage d'une aventure » à « l'aventure du langage » . Autrement dit, son propos s'enchaîne et prend forme autour d'un flux incessant d'allitérations, d'associations, de rimes, d'entrechocs de mots. C'est là sa façon de faire entendre comment sa mémoire a agrégé des sonorités, des rythmes, des assonances comme un fonds inépuisable où sa verve viendrait constamment se ressourcer. Comme si sa manière de travailler ce matériau sonore et d'être travaillé par lui désignait cela même qui ne peut se dire : désir, excitation, jouissance - tous ces influx et afflux que nos mots ne savent encadrer et qui viennent donner son étoffe ou sa couleur à notre mémoire.

Un des défis que cherchent à relever les textes les plus intenses - de Duras à Valère Novarina, de Beckett à Pierre Guyotat - est d'essayer de faire entendre à travers l'écriture quelque chose de la voix. Notre voix dit le plus intime de nous - agressivité, mélancolie, pulsions... -, notre rythmique singulière, notre musique très particulière : donc, ce qui s'est inscrit et façonné en nous dans les rapports du langage et du corps depuis notre histoire la plus archaïque. Rechercher une écriture de l'oralité, qui tente de métaphoriser les harmoniques, les justesses ou les porte-à-faux de la voix, est une des façons d'introduire la mémoire comme force organisatrice de l'écriture.

Mais l'écriture est aussi un instrument privilégié pour donner forme et organisation à la mémoire. Qu'est-ce qu'un souvenir si on ne lui donne ses racines et radicelles, ses branches et ses ramifications ? L'écriture permet de le réintroduire dans son paysage, dans la complexité de ses arrière-pays. Dans Enfance 1983, Nathalie Sarraute trame le récit de son enfance autour de quelques mots ou de quelques gestes, lancés ou reçus comme des projectiles8. C'est autour d'eux que le système nerveux de la mémoire s'est dessiné, dans la souvenance des décharges ou influx subis à partir de ces mots ou de ces signes. Mais comment faire ressentir que ce sont des gouttes d'acide toujours brûlantes ? Sarraute s'attache patiemment à décrire les ondes de choc créées par ces sensations, à mettre des mots sur ce qui est resté impression vive, mais confuse ou trop chargée d'émotions contradictoires. C'est tout ce tressage verbal qui donne à la mémoire sa consistance autant que ses pouvoirs de résonance.

Certes, par définition, l'écriture est mémoire, conservation de traces, défi de la mort. Le sens ou la nostalgie de la durée l'habitent. Mais, dans un temps dominé par la péremption toujours plus rapide des signes et des références, la littérature renouvelle son compagnonnage avec la mémoire en passant avec elle comme de nouveaux contrats. Dans la tradition grecque, les neuf muses étaient filles de Mnémosyne, la mémoire. Le mythe n'a rien perdu de son actualité : c'est en puisant dans les trésors sans fond de la mémoire individuelle ou collective, récente ou infiniment archaïque, que la littérature - et avec elle la civilisation ? - trouvera les moyens de son renouveau.

Par Claude Burgelin

DOCUMENT larecherche.fr LIEN

A D N

21/05/2016

Paris, 30 avril 2015
Comment une séquence d'ADN mobile trouve-t-elle sa cible ?

Pour comprendre comment les éléments transposables1 façonnent les génomes et y sont maintenus au cours des générations, une étape clé est de découvrir les mécanismes à l'origine de leur intégration ciblée. Des chercheurs du laboratoire Pathologie et virologie moléculaire (CNRS/Inserm/Université Paris Diderot)2, en collaboration avec des chercheurs du CEA3 et d'un laboratoire américain4, ont identifié une interaction entre deux protéines, indispensable pour l'intégration d'un élément transposable dans une zone précise du génome d'une levure. Ces résultats, publiés le 1er mai dans la revue Science, soulignent le rôle de ces séquences d'ADN mobiles dans l'évolution et l'adaptation des organismes, et leur intérêt pour la thérapie génique.
Les éléments transposables sont des séquences d'ADN capables de se déplacer dans les génomes. Ils en représentent une fraction significative et joueraient un rôle important dans leur évolution. En s'intégrant au sein de l'ADN, ces éléments peuvent contribuer à la plasticité du génome et à l'apparition de nouvelles fonctions cellulaires. A l'inverse, ils peuvent également provoquer des mutations mettant en péril la vie des cellules. Leur intégration se fait généralement dans des régions particulières, pauvres en gènes, où elle est moins délétère. Les mécanismes qui permettent cette intégration ciblée sont encore mal compris.

Les auteurs de cette étude se sont intéressés au rétrotransposon5 Ty1 de la levure Saccharomyces cerevisiae pour étudier comment est déterminé le site d'intégration. Ty1 s'intègre dans une région, étroite à l'échelle du génome, située en amont de gènes précis, tous transcrits par un complexe enzymatique, l'ARN polymérase III (Pol III). En utilisant Pol III comme un appât, les chercheurs ont découvert qu'une des protéines de ce complexe, appelée AC40, interagit avec la protéine codée par Ty1 qui permet son intégration. La suite des analyses a montré que cette interaction est indispensable pour l'intégration ciblée de l'élément transposable. En effet, dans des cellules contenant une protéine issue d'une autre levure, équivalente à AC40 au niveau fonctionnel, mais qui n'interagit pas avec Ty1, celui-ci s'insère toujours efficacement dans le génome mais très rarement dans ses cibles habituelles.

L'étude révèle donc un des mécanismes par lesquels une séquence d'ADN mobile trouve sa cible. Elle dévoile aussi quelles sont les régions du génome où cette séquence s'intègre en l'absence de ce  mécanisme de contrôle. Elle s'insère préférentiellement dans les zones situées aux extrémités des chromosomes, qui contiennent des familles de gènes non essentiels en conditions normales mais nécessaires à l'adaptation des levures à des changements environnementaux. Par ailleurs, l'expression de l'ARN polymérase III, qui conditionne l'insertion ciblée de Ty1, est dépendante des conditions environnementales. Ces résultats confortent donc l'hypothèse selon laquelle la mobilité des éléments transposables, souvent activée en réponse au stress environnemental, favoriserait la réorganisation du génome, permettant une adaptation des levures exposées à ces changements et facilitant leur survie.

Au-delà de l'avancée pour la recherche fondamentale, élucider le mécanisme d'intégration de Ty1 a également un intérêt pour la thérapie génique. Celle-ci utilise des vecteurs dérivant de rétrovirus afin de transférer des gènes au sein des cellules. Comme les rétrovirus, ces vecteurs s'intègrent souvent dans des régions riches en gènes où ils peuvent avoir des effets mutagènes. Les propriétés des éléments transposables comme Ty1 pourraient être exploitées pour limiter les impacts des vecteurs de transfert de gènes en contrôlant leur intégration dans des régions à moindre risque.


Notes :
1 Un élément transposable est une séquence d'ADN capable de se déplacer de manière autonome dans un génome. Présents chez tous les organismes vivants, ces séquences mobiles sont considérées comme des moteurs puissants de l'évolution et de la biodiversité.

2 Laboratoire partenaire du Conservatoire national des arts et métiers (Cnam).

3 De l'Institut de biologie intégrative de la cellule (CNRS/CEA/Université Paris-Sud).

4 Department of Genetics, Cell Biology & Development and Center for Genome Engineering (Université du Minnesota).

5 Un rétrotransposon est un élément transposable particulier, capable de se répliquer sur un mode copier-coller donc de se multiplier et d'envahir un génome. Cette réplication passe par un intermédiaire ARN. Les rétrotransposons présentent des similarités avec les rétrovirus.

Références :
An RNA polymerase III subunit determines sites of retrotransposon integration, A. Bridier-Nahmias, A. Tchalikian-Cosson, J.A. Baller, R. Menouni, H. Fayol, A. Flores, A. Saïb, M. Werner, D.F. Voytas & P. Lesage, Science, 1er mai 2015.

 

 DOCUMENT         cnrs        LIEN

BIG BANG

15/05/2016

Quelques millionièmes de seconde après le Big Bang


physique - par Michel Gonin dans mensuel n°357 daté octobre 2002 à la page 22 (3113 mots) | Gratuit
Pourrait-on chauffer suffisamment la matière pour en libérer les constituants les plus élémentaires piégés dans des particules composites quelques instants seulement après la naissance de l'Univers ? Des physiciens y sont parvenus après une vingtaine d'années d'efforts.

Le 10 février 2000, le Laboratoire européen de physique des particules CERN, installé sur la frontière franco-suisse, près de Genève, annonçait à la presse la mise en évidence, après quinze années de recherches, d'un état de la matière encore jamais observé : le plasma de quarks et de gluons, mélange désordonné de particules élémentaires. En quinze ans, nous avions ainsi remonté le temps d'une douzaine de milliards d'années. Un plasma de quarks et de gluons aurait en effet occupé tout le volume de l'Univers, quelques millionièmes de seconde après la naissance de celui-ci lors du « Big Bang » fig. 1.

La date de l'annonce du CERN n'était pas anodine : elle précédait de quatre mois la mise en service aux Etats-Unis d'un nouvel accélérateur, le RHIC acronyme anglais de Collisionneur d'ions lourds relativistes, entièrement consacré à la découverte et à l'étude de ce plasma de quarks et de gluons. C'est peu dire que le communiqué de presse du CERN n'a pas fait l'unanimité parmi les équipes de physiciens impliquées depuis une douzaine d'années dans la conception et la construction du RHIC. Certes, une lecture attentive du texte révèle une certaine prudence dans le choix du vocabulaire. Le mot « découverte » n'y est jamais mentionné : une porte est laissée ouverte aux physiciens du RHIC qui souhaiteraient revendiquer une éventuelle « co- découverte » du plasma primordial. Mais le CERN a voulu s'assurer qu'il y aurait bien partage de cette découverte, et qu'il n'y serait pas oublié.

Effet d'annonce. En physique des hautes énergies, cette démarche est assez habituelle. Avec des projets étalés sur des dizaines d'années, cette physique nécessite une certaine gestion du temps et des effets d'annonce que certains qualifient parfois d'abusifs. Ces annonces sont toujours fondées sur un « niveau de confiance », estimé mathématiquement, mais la frontière entre une affirmation et une présomption peut, dans certains cas et pour un certain temps, être floue. La vérification des résultats, lors de la prolongation des expériences ou avec de nouvelles expériences, a toujours apporté une réponse claire et définitive à la question de la paternité d'une découverte. Dans le cas du plasma de quarks et de gluons, nous pouvons affirmer, deux ans et demi après, que l'annonce du CERN était totalement justifiée au vu de la quantité, de la qualité et de l'originalité des résultats obtenus. Pour autant, le programme du RHIC, qui ne fait que commencer, ne se contentera pas de confirmer les données du CERN. Dans un premier temps, des expériences devaient mettre en évidence le plasma de façon différente. Cela a déjà commencé. Puis, d'ici à quelques années, le RHIC permettra de sonder beaucoup plus en détail le comportement des quarks, les briques ultimes de la matière.

Atomes décomposés. Nous le savons depuis le début du XXe siècle, les particules que nous nommons atomes ne correspondent pas à la définition qu'en donnait Démocrite au IVe siècle avant notre ère : on peut les décomposer en constituants plus élémentaires, les électrons et le noyau. Les physiciens ont ensuite progressivement découvert que le noyau lui-même est formé de protons et de neutrons, puis que les protons et les neutrons sont à leur tour constitués de quarks fig. 2. Ces derniers sont assemblés grâce aux interactions « fortes », transmises par des particules nommées gluonsI.

Les quarks et les gluons semblent être des particules vraiment élémentaires, sans structure interne, comme l'électron. Mais ils restent mal connus : contrairement aux protons et aux neutrons, que l'on peut extraire des noyaux atomiques et observer isolément, les quarks et les gluons n'existent pas à l'état individuel voir l'encadré : « L'interaction forte ». La plupart du temps, ils se regroupent dans des particules nommées hadrons, dont le neutron et le proton ne sont que les deux exemples les plus courants. Si l'on réussit à expulser un quark ou un gluon d'un hadron, par exemple lors d'une collision assez violente entre protons, il s'entoure immédiatement d'autres quarks et de gluons, formés à partir des fluctuations de l'interaction forte dans le vide quantique qui n'est en fait jamais tout à fait vide à cette échelle. Par conséquent, on ne peut pas observer directement un quark ou un gluon isolé dans un détecteur de laboratoire.

Cependant, la théorie qui rend compte de ces interactions fortes entre quarks et gluons prédit aussi que, pour des températures très élevées environ cent mille fois la température maximale de notre Soleil, ces particules retrouvent leur liberté. Retrouver est le verbe juste, car quelques millionièmes de seconde après la naissance de l'Univers, quarks et gluons ont déjà interagi librement, sans plus de contrainte que des boules de billard qui s'entrechoquent. Ces particules étaient aussi alors libres de se déplacer dans un volume infiniment plus grand que les 10-45 m3 des hadrons où le refroidissement de notre Univers les a définitivement emprisonnés. Ce qui s'est précisément passé pendant cette étape de liberté a pu conditionner toute l'évolution ultérieure de notre Univers, par exemple la création d'inhomogénéités dans la répartition de la matière, à l'origine des galaxies et des systèmes stellaires.

Little Big Bang. Pour mieux comprendre les interactions entre les quarks et les gluons, et en même temps mieux décrire les premières étapes de l'évolution de l'Univers, le CERN a lancé en 1986 le programme expérimental « production du plasma de quarks et de gluons ». Baptisé aussi Little Big Bang, ce programme, qui a mobilisé plusieurs centaines de physiciens, était préparé depuis la fin des années 1970. Grâce à deux anneaux d'accélération successifs, un synchrotron* et un supersynchrotron, les ingénieurs et les physiciens du CERN communiquaient à des noyaux atomiques des vitesses proches de celle de la lumière et les projetaient sur des cibles fixes. Les chocs frontaux entre ces ions et les noyaux des atomes cibles devaient produire des températures très élevées dans un volume nettement supérieur à celui qu'occupent les quarks confinés dans un proton ou dans un neutron, de façon à former un plasma. Les cibles étaient entourées d'un ensemble de détecteurs qui enregistraient pour chaque collision l'ensemble des particules stables ou instables émises, ainsi que les fragments des noyaux initiaux n'ayant pas ou peu interagi fig. 3.

Les expériences ont commencé avec des noyaux d'oxygène et de soufre. Puis, à partir de 1994, des noyaux atomiques de plomb environ six fois plus lourds que les noyaux de soufre et douze fois plus lourds que ceux d'oxygène ont été utilisés comme projectiles. Cette augmentation de masse a permis la production de collisions avec des densités d'énergie environ trois ou quatre fois supérieures à celles obtenues jusque-là. Les collisions de ces noyaux de plomb avec des cibles du même élément ont permis d'atteindre une température environ deux cents fois supérieure à celle d'un noyau atomique ordinaire.

2 000 milliards. Sept expériences qui utilisaient différents types de détecteurs de différentes tailles ont participé à ce programme, chacune étudiant des aspects différents de la production du plasma primordial, avec parfois certaines redondances. Les données des sept expériences ont montré que les collisions entre noyaux atomiques ayant un nombre de protons et de neutrons supérieur ou égal à celui du soufre suffisaient à produire le plasma primordial. Ces données confirment expérimentalement certaines prédictions théoriques des interactions fortes, dont la température minimale environ 2 000 milliards de degrés nécessaire pour libérer les quarks et les gluons en formant le plasma. La durée de vie du plasma primordial recréé au CERN soit quelques milliardièmes de milliardième de millionième de seconde était toutefois beaucoup plus courte que celle du plasma présent durant les premiers instants de notre Univers quelques millionièmes de seconde. Ce dernier s'est en effet refroidi beaucoup plus lentement que la matière déconfinée qui a été créée au CERN, car son volume était beaucoup plus étendu, et son expansion beaucoup plus lente.

Prouver expérimentalement que cet état fugace a existé est une gageure. Nos détecteurs ne sont en effet pas assez rapides pour saisir le plasma avant qu'il ne refroidisse et se transforme en matière nucléaire ordinaire constituée de protons, de neutrons et d'autres particules. Dans le flux de particules détectées, seules quelques anomalies trahissent que les quarks et les gluons ont été brièvement libérés, un peu comme des fossiles plus ou moins bien conservés témoignent de l'existence d'espèces disparues.

Lorsque les théoriciens réussissent à prouver que l'une de ces anomalies ne peut pas tirer son origine d'autres événements, elle acquiert alors le statut de « signature » du plasma de quarks et de gluons. C'était justement le travail des théoriciens, pendant la préparation du programme, que de déterminer les signatures les plus caractéristiques, en fonction des performances des accélérateurs. La conception des sept expériences a découlé en grande partie du choix effectué parmi ces signatures.

Rayonnement révélateur. L'une des signatures les plus originales et les moins ambiguës est la production d'un rayonnement électromagnétique dont le spectre est analogue au rayonnement d'un « corps noir ». Dans le langage des physiciens, un corps noir est un objet qui réémet toute l'énergie qu'il absorbe. Le spectre de ce rayonnement ne dépend que de sa température. En particulier, la mesure de la fréquence correspondant au maximum d'intensité permet de calculer la température d'un corps noir. Dans le plasma, les quarks et les gluons émettent ce rayonnement lors de leurs collisions, sous la forme de photons dont l'énergie est si grande qu'ils ne peuvent pas être produits lors du refroidissement ultérieur, et qu'ils sont très peu absorbés par les hadrons.

L'expérience WA98 a effectivement détecté de sérieux indices d'un rayonnement de type « corps noir » pour les collisions les plus violentes entre noyaux de plomb1. En comparant l'énergie de ces photons avec des prédictions théoriques, on calcule qu'ils ont été émis à une température supérieure à la température critique de formation du plasma primordial, indiquant non seulement que celui-ci s'est formé, mais encore qu'il a été chauffé.

La formation de ce plasma chauffé a aussi été démontrée par une autre signature observée expérimentalement au CERN : la réduction de la production des particules J/y voir l'encadré : « Deux noms pour la particule J/y » lors des collisions entre noyaux2. La particule J/y est constituée de deux quarks, de type c charmé et anti-c, qui possèdent une certaine énergie. Les particules J/y ont une probabilité très faible de l'ordre de un dix millième d'être produites dans une collision entre noyaux, car leur masse est trois fois plus grande que celle des protons, et surtout vingt fois plus grande que celle d'autres paires de quarks qui se forment lors des collisions. Mais cette probabilité n'est pas nulle : on observe effectivement la formation de J/y. Au contraire, si le plasma de quarks et de gluons se forme, et qu'il atteint une température assez élevée, cette probabilité tombe à zéro, car l'agitation incessante du plasma produit un effet d'écran entre ces deux quarks et les empêche de se lier.

L'effet d'écran est un phénomène très général : la force d'attraction ou de répulsion entre deux objets physiques chargés est réduite par une accumulation entre eux de charges en mouvement désordonné. On l'observe par exemple entre atomes ou molécules chargés électriquement dans des solutions ou dans des solides. Tout se passe comme dans la scène finale du film Les Enfants du paradis de Marcel Carné. Sur un boulevard de Paris, le couple vedette du film, le mime Baptiste et la charmante Garance, rencontre un défilé carnavalesque. En s'interposant entre eux, et par d'incessants mouvements, cette foule désordonnée sépare définitivement le couple en les entraînant, malgré eux, loin l'un de l'autre. Si l'on remplace Jean-Louis Barrault et Arletty par deux quarks, c et anti-c, et la foule par le plasma de quarks et de gluons, on observe l'annulation par effet d'écran des interactions fortes et électromagnétiques entre les deux quarks : la paire se dissocie et ne se transforme pas en particule J/y. L'écrantage complet de l'interaction électromagnétique entre les deux quarks c et anti-c nécessite une température environ 1,2 fois supérieure à la température critique de formation du plasma.

Ecran discriminant. Cet effet d'écran entraîne bien entendu la dissociation de toutes les paires de quarks qui se seraient formées au moment de la collision, quel que soit le type de quarks. Mais, étant donné sa grande masse, une paire de quarks c et anti-c ne peut se former qu'aux tout premiers instants d'une collision entre noyaux atomiques, lorsque l'énergie disponible est la plus élevée : contrairement à d'autres paires de quarks plus légères, elle ne se forme pas pendant le refroidissement du plasma de quarks et de gluons. Le nombre de J/y émis dans une collision entre noyaux est donc particulièrement sensible à la formation du plasma de quarks et de gluons.

Une telle suppression des particules J/y a justement été observée par l'expérience NA50, dans les collisions entre noyaux de plomb, et pour des événements caractérisés par des températures supérieures à la température critique de déconfinement, en parfait accord avec les prédictions de la théorie fig. 4. Ce résultat spectaculaire confirme la production du plasma primordial, et il indique que celui-ci perdure au moins aussi longtemps que la durée pendant laquelle des particules J/y pourraient se former, soit 3.10-24 seconde.

Enfin, d'autres signatures ont également été observées et mesurées au CERN. Ainsi, la production de quarks s étrange est considérablement accrue. Par ailleurs, les rapports entre les abondances finales des différents types de particules produites au moment où le plasma se condense en hadrons sont constants dans toutes les expériences, quelle que soit la violence de la collision. Comme ces rapports dépendent, en théorie, seulement des masses des particules et de la température de condensation du plasma, nous avons estimé cette température à l'aide des mesures de ces rapports pour plus d'une vingtaine de particules de masses différentes. Toutes les estimations donnent le même résultat à 6 % près ! : environ 2 000 milliards de degrés. Cela signifie que l'abondance de toutes les particules a bien été fixée exactement à la même température, correspondant à la transition entre confinement et déconfinement. Cette valeur de la température critique est de plus en parfait accord avec les prédictions de la théorie des interactions fortes.

Quatre mois après l'annonce du CERN à Brook-haven, sur Long Island, près de New York, le RHIC a été mis en service. Ce nouvel accélérateur, constitué en fait de trois anneaux dont le plus grand a 3 800 mètres de circonférence, est le premier accélérateur où des ions lourds sont projetés sur des ions identiques tournant en sens opposé. Ce fonctionnement en mode collisionneur permet aux physiciens d'atteindre des températures plus élevées qu'au CERN, et donc la production plus fréquente et plus durable du plasma de quarks et de gluons. Ces nouvelles conditions permettront dans un premier temps la confirmation des résultats du CERN, et ensuite l'étude des propriétés de cet état déconfiné de la matière, ainsi que des mécanismes, inconnus pour l'instant, d'emprisonnement des quarks dans les particules : nous ne connaissons bien l'interaction forte que lorsqu'elle est relativement « faible », c'est-à-dire à courte distance dans les hadrons !

La première phase du programme doit se terminer d'ici à quatre ou cinq ans. Quatre « expériences » sont installées sur le RHIC pour produire et étudier le déconfinement des quarks et des gluons. Elles correspondent à quatre ensembles de détecteurs et à environ 1 100 physiciens et une centaine d'ingénieurs regroupés en collaborations : deux principales, Phenix et Star, et deux plus modestes, Brahms et Phobos.

Confirmation générale. Dès sa première année de fonctionnement, le RHIC a permis de collecter certains résultats, mais ce n'est que durant la prise de données effectuée en 2001 que l'énergie maximale de l'accélérateur a été atteinte. D'une manière générale, les premiers résultats confirment certains de ceux obtenus au CERN : une forte augmentation de la production de particules contenant des quarks de type s ; les rapports d'abondance constants des différents types de particules produites pendant le refroidissement du plasma primordial.

Cette première campagne de mesures au RHIC a toutefois produit des résultats plus spectaculaires, par exemple l'observation d'une signature sans doute inaccessible au CERN : la suppression des jets de particules3. Dans une collision entre deux protons, certains quarks peuvent être expulsés du volume occupé par les deux particules. Selon le principe de confinement des interactions fortes, ils doivent « s'habiller avant de sortir » avec des gluons et d'autres quarks. A très hautes énergies, l'habillage d'un quark produit une famille très nombreuse de particules détectables dans une région de l'espace bien délimitée, un cône, et assimilable à un jet. L'observation de ces « jets » a même constitué dans les années 1970 une preuve expérimentale de l'existence des quarks fig. 5.

Jets amortis. Dans le plasma primordial, il est extrêmement difficile pour un quark ou un gluon de sortir avec une très grande énergie, car il cède auparavant une grande partie de celle-ci au milieu déconfiné. Son habillage est alors plus modeste. Par conséquent, en comparaison avec une collision entre protons, la formation du plasma primordial doit, dans une collision entre noyaux, supprimer la production de jets de particules. Cette empreinte du plasma primordial a été observée pour la première fois au RHIC par les expériences Phenix et Star, et a déjà fait l'objet de plusieurs publications : à mesure que la violence de la collision augmente, les jets sont de plus en plus rares. Cette empreinte doit être encore étudiée en fonction des températures atteintes dans les collisions entre noyaux4.

La fréquence des collisions entre noyaux n'est toutefois encore que de 10 % de sa valeur maximale, qui devrait être atteinte en 2003. Les physiciens pourront alors reprendre les études des effets d'écran sur la production des particules rares comme la particule J/y. Les premiers résultats sont attendus pour 2004. La première phase d'exploitation du RHIC se terminera en 2006 avec l'analyse des données sur le rayonnement électromagnétique émis par le plasma primordial à très hautes températures et les effets d'écran dans la production, inaccessibles au CERN, de certaines particules plus rares et plus lourdes que la particule J/y. Il s'agit des particules Upsilon composées de deux quarks de type b et anti-b. Au-delà, après une nouvelle augmentation d'un facteur 40 de la fréquence des collisions, les physiciens pourront alors commencer à explorer, à Brookhaven avec le RHIC, et plus tard au CERN de Genève avec le LHC voir l'encadré : « Des physiciens français à Brookhaven », les propriétés physiques de ce mystérieux et très ancien état de la matière. Un coin du voile concernant l'emprisonnement des quarks et des gluons devrait alors commencer à se lever.

Par Michel Gonin

 DOCUMENT       larecherche.fr       LIEN

LES ROBOTS SOCIAUX

13/05/2016

Les premiers pas des robots sociaux


spécial robots - par Alexis Drogoul et Jean-Daniel Zucker dans mensuel n°350 daté février 2002 à la page 91 (2145 mots)
Après Aibo, les robots guides de musée et les robots nurse, des expérimentations mettent en présence une colonie de robots et des humains dans le cadre de leur vie quotidienne. Une perspective révolutionnaire.

PourquoiR2D2, un droïde non humanoïde, est-il régulièrement cité, dans les nombreux sondages réalisés à propos de Star Wars , comme l'un des personnages préférés des spectateurs, alors qu'il ne possède aucun des attributs que l'on prête traditionnellement, dans la littérature de science-fiction, aux robots « évolués » ? Il est certes doté d'un aspect plutôt sympathique et rassurant, mais son mode de locomotion est rudimentaire, ses possibilités de préhension ou d'action particulièrement pauvres, ses capacités de communication réduites à des sifflements et bourdonnements incompréhensibles sauf à quelques autres robots, qui sont nécessaires pour décrypter ce qu'il dit, et son « expressivité » ne va pas au-delà d'un clignotement de lampe sur sa face avant. Rien qui puisse réellement, à première vue, déclencher le moindre engouement ! Peut-être faut-il aller chercher ailleurs, alors, ce qui, en dépit de son altérité radicale, rend ce robot si attachant ... et si proche de nous.

La raison essentielle tient à la place qu'il occupe aux côtés des héros du film. Tout en étant très différent d'eux, physiquement et - sans doute - psychologiquement, il apparaît paradoxalement mieux intégré à leur communauté que les autres robots, dont la plupart ne sont bons qu'à servir d'esclaves artificiels. Dans la plupart des scènes où il se produit, ses faibles capacités d'action font qu'il a autant besoin de l'aide des hommes que ceux-ci ont besoin de ses connaissances concernant le monde « électronique », créant de la sorte l'impression troublante d'une égalité qui n'est pas simplement formelle. Son « autonomie » est en fait comparable à l'autonomie dont dispose chacun des êtres vivants présents dans Star Wars , car, bien que capable de prendre des décisions seul, il dépend en grande partie de son environnement social pour pouvoir fonctionner correctement. En ce sens, R2D2 est l'archétype de ce qu'il convient d'appeler un robot socialement situé ou robot social, pour faire court, robot autonome capable d'évoluer et prévu pour fonctionner quelles que soient ses fonctions au sein d' environnements socialisés , c'est-à-dire des milieux façonnés, contrôlés et occupés par les êtres humains, et essentiellement prévus pour eux. Cela sans qu'il ait besoin de « tricher » en jouant, par exemple, de son apparence physique : il est et reste aux yeux de tous un robot qui ne « singe » pas l'homme, à qui il est pourtant possible de conférer une individualité, voire une intentionnalité, aussi naturellement qu'aux autres personnages.

Droïdes de service. Il est possible de distinguer, dans son comportement, quelques-uns des traits fondamentaux qui pourraient servir à caractériser ce qui en fait un robot social. D'abord physiquement situé dans le même monde que ses utilisateurs, en interaction constante avec eux, il se montre capable de réagir et d'agir, avec ses moyens limités, de façon fluide et naturelle, au point qu'aucune de ses actions ne semble « hors de propos » ou déplacée. Il est également capable d'entretenir des relations personnalisées avec les autres personnages, relations qui s'appuient sur l'histoire des interactions qu'il a pu avoir avec eux.

Second point : bien qu'il fasse partie de la catégorie des « droïdes de service », il est parfaitement capable, dans les situations qui l'exigent, d'utiliser les autres protagonistes à son bénéfice. En ce sens, la relation d'instrumentalisation qu'il entretient avec ses « utilisateurs » n'est pas à sens unique : on se sert autant de lui qu'il sait se servir des autres, par exemple quand son état exige des réparations qu'il est incapable d'effectuer seul. Troisième point : son comportement évolue au fur et à mesure des situations auxquelles il est confronté, ce qui montre qu'il est capable d'apprendre, aussi bien par lui-même que par interaction avec les autres personnages. Nulle part, dans les différents films de la saga, ne voit-on ainsi un personnage être obligé de le « programmer » pour une mission particulière, alors que son comportement démontre une plasticité impressionnante. En l'absence de tout dialogue, il semble même capable de reconnaître les intentions des personnages qui l'entourent et d'agir en fonction de ces intentions. Enfin il apparaît, en dépit de son altérité fondamentale, comme parfaitement intégré au monde social qui l'entoure, et pas simplement comme le serait un objet ou un outil un peu sophistiqué. Il a une place à part entière dans le groupe, place reconnue par les autres, qui peut même évoluer en fonction des contextes. Cela démontre une acclimatation de longue date des humains dépeints dans le film à la présence de robots similaires, mais aussi une conscience, de sa part, du ou des rôles qui lui sont implicitement conférés dans un groupe.

Robot aspirateur. R2D2 n'est bien entendu qu'un exemple, qui plus est dans un monde totalement imaginaire, de robot social. Cependant, force est de reconnaître qu'il possède bon nombre des caractéristiques dont il conviendrait de doter les robots de service ou de loisir si nous voulons, un jour, que ceux-ci puissent opérer de façon naturelle et quotidienne dans notre environnement et soient, en dépit de leur autonomie, acceptés et appréciés par leurs utilisateurs de la même façon que ceux-ci les acceptent - et les apprécient - dans une oeuvre de fiction.

Dans le monde beaucoup plus terre à terre de l'industrie, l'adaptation de robots complètement asservis est réalisée a priori .Ils sont capables, une fois placés dans le bon environnement, de fonctionner en complète autarcie sans avoir à percevoir autre chose que ce qui concerne la tâche pour laquelle ils sont conçus. Quant aux robots dits autonomes, prévus pour des missions spécifiques dans des environnements non socialisés exploration, intervention dans des environnements lointains ou hostiles à l'homme, etc., ils sont, eux, conçus de manière à éviter d'avoir à appréhender toute la complexité de leur environnement. Leur comportement repose sur la perception de caractéristiques environnementales dont les propriétés intervalles de valeurs, limites de variation, fréquences de changement sont considérées comme connues de façon fiable. La complexité intrinsèque de leur milieu importe peu ; seule compte la complexité de ce qu'ils perçoivent de ce milieu. Aux yeux de Rocky, la complexité de la planète Mars est très faible : absence ou présence d'obstacles, absence ou présence de roches à filmer, absence ou présence d'une base.

Mais dès lors que des interactions répétées avec des humains, non prévues à l'avance, sont, soit nécessaires, soit inévitables dans le fonctionnement du robot, ces modèles ne sont plus valables1. Comment serait accepté un robot aspirateur autonome qui nécessiterait que les habitations soient conçues pour lui permettre de fonctionner correctement interdiction de déplacer les meubles, circuit immuable, murs peints de certaines couleurs, évacuation des lieux à chaque nettoyage, etc., ou qui ne tiendrait compte de rien d'autre que de la présence ou absence de poussière et ne se mette à fonctionner quand bon lui semble ? L'être humain a ceci de particulier qu'il est, lui, vraiment autonome donc difficilement contrôlable au même titre qu'un objet, que son comportement est souvent imprévisible à moins de percer toute la richesse de ses intentions et qu'il est peu enclin à se montrer coopératif, surtout avec des systèmes technologiques capables de bouleverser ses habitudes. Dans le même temps, cependant, l'être humain constitue une ressource d'une richesse incroyable qui, si elle est correctement exploitée par le robot, peut lui permettre de progresser de manière significative dans la réalisation de ses tâches.

Robots guides. La mise sur le marché, il y a deux ans, du robot Aibo de Sony a ouvert une ère nouvelle, en permettant, par le biais d'un instrument de loisir, de créer des situations de cohabitation entre hommes et robots qu'il est devenu possible d'étudier sur le long terme, tant sur le plan psychologique que sociologique lire l'article de Frédéric Kaplan p. 84. En revanche, le champ d'expérimentation ainsi ouvert reste limité. Aibo n'est déployé, en majorité, que dans des cellules familiales et pas des collectivités plus importantes ou plus variées dont le niveau socioprofessionnel est élevé et qui sont déjà pour la plupart parfaitement acclimatées à la sphère « technologique » sous toutes ses formes.

Plus intéressante est la mise en place des robots guides de musée2 imaginés par l'Institut de robotique de l'université Carnegie Mellon, aux Etats-Unis. Les robots Sage, puis Rhino et Minerva, ont été brièvement expérimentés en 1998 et 1999 respectivement dans le Dinosaur Hall du Carnegie Museum d'Histoire naturelle, au Deutsche Museum de Bonn et au Smithsonian's National Museum of American History. Même si elles ont été limitées dans le temps une ou deux semaines, ces expériences se sont révélées très riches d'enseignements sur le degré d'attention des usagers, leurs attentes, leur curiosité, leur interprétation du fonctionnement du robot, etc. et ont permis de donner naissance à d'autres travaux plus ambitieux, comme NurseBot, aussi à Carnegie Mellon, conçu pour assister les personnes âgées dans leurs tâches quotidiennes3. Dans tous ces travaux, cependant, les résultats obtenus sur l'acclimatation sont quelque peu dénaturés par l'emploi d'un seul et unique robot opérant au sein de groupes humains pour une période de temps assez courte. Il est vraisemblable, dans la perspective de la robotique de service, par exemple, que les usagers seront quotidiennement en contact avec plusieurs robots, qui seront eux-mêmes, sans doute, amenés à interagir les uns avec les autres.

Le projet MICRobES*4, que nous avons mis en place dans notre laboratoire, s'inscrit précisément dans cette perspective. Six droïdes se promènent librement dans les locaux du laboratoire, qui abrite bien d'autres spécialistes que les roboticiens impliqués dans le projet. Ils sont capables de recharger eux-mêmes leur batterie, de se localiser dans l'environnement et d'éviter les obstacles vivants et non vivants, ainsi que les endroits dangereux ascenseurs.... L'expérience a pour objet d'étudier l'évolution des relations hommes/robots dans cet espace partagé. Des sociologues du centre de sociologie de l'innovation de l'Ecole des mines CSI interrogent régulièrement les chercheurs du laboratoire, pour voir comment ils réagissent, à la longue plusieurs mois en présence de cette colonie du troisième type. Plusieurs questions, essentielles au développement d'une robotique sociale, sont abordées dans le cadre de ce projet : une personne réagit-elle de la même manière en présence d'un robot solitaire et d'un groupe de robots ? L'attribution de sens et d'intentionnalité se déroule-t-elle de la même façon ? L'acclimatation ou l'habituation à la présence des robots en est-elle facilitée ? Une grande attention est portée au détail des interactions entre hommes et robots, notamment par le biais de la classification des attitudes qu'adoptent les personnes concernées en présence des robots et sur l'évolution de ces attitudes dans le temps certains ferment leur porte dès qu'ils entendent un droïde arriver....

Concevoir des robots sociaux met ainsi profondément en cause l'orientation purement technologique, presque scientiste, qui est celle de la robotique depuis ses origines. Il n'est, en effet, pas interdit de penser que les problèmes de perception, d'action, de modélisation de l'environnement ou de planification qui se posent à des robots asservis ou complètement autonomes pourront être résolus par le développement incrémental de technologies toujours plus puissantes et robustes. En revanche, il est peu vraisemblable que ces technologies « internes » à la robotique permettent d'aborder facilement des problèmes d'interaction, d'apprentissage, d'acclimatation dont la solution repose, en partie, sur une compréhension fine et une utilisation contrôlée de la façon dont les êtres humains se comportent en présence d'artefacts autonomes ou semi-autonomes. Certes, l'aspect technologique sera toujours nécessaire. Il ne serait pas possible de parler de robots sociaux aujourd'hui sans les avancées spectaculaires réalisées ces dernières années dans le domaine de l'autonomie énergétique, des capteurs, des effecteurs, ou des interfaces d'interaction5,6. Mais, pas plus qu'il n'est possible d'imaginer le développement de robots démineurs dotés de « nez chimiques » sans le concours de chimistes, il ne paraît vraisemblable d'envisager le développement de robots sociaux sans le concours des sciences humaines concernées : sociologie, anthropologie, psychologie, ou éthologie.

Révolution. En définitive, les recherches actuellement menées dans ce domaine consistent à tenter de remettre systématiquement l' homme dans la boucle 7 , c'est-à-dire, par exemple, à considérer que, quel que soit le problème posé au robot, il ne possédera jamais, s'il fonctionne en présence d'êtres humains, qu'une partie de sa solution, l'autre étant entre les mains de ses utilisateurs et échappant, de fait, en partie à ses concepteurs. Cette perspective se traduit, sous ses airs anodins, par une véritable révolution en robotique : l'homme n'est plus un « obstacle » mobile et imprévisible, qu'il convient, au mieux, d'ignorer ou d'éviter, au pire de contrôler par tous les moyens adéquats, mais une ressource qu'il va être nécessaire d'apprivoiser au même titre que les autres ressources « naturelles » un substrat physique pour se déplacer, une station pour se recharger, etc. dont dispose le robot. A la différence près qu'il ne s'agit pas d'une ressource passive et que l'exploiter nous renverra forcément à des questions fondamentales sur notre cognition, individuelle et sociale, auxquelles nous ne savons pas forcément répondre aujourd'hui.

Par Alexis Drogoul et Jean-Daniel Zucker

DOCUMENT larecherche.fr LIEN

LA PEAU

07/05/2016

La peau


par Ursula Lenseele, Daniel Schmitt dans mensuel n°351 daté mars 2002 à la page 50 (2915 mots)


Une simple enveloppe ? Vision ô combien réductrice ! La peau est un organe à part entière. Barrière, mais aussi lieu d'échanges, elle assure des fonctions multiples. Ne va-t-on pas jusqu'à lui attribuer, chez l'homme, le qualificatif de « cerveau étalé » ? Sans compter l'importance sociale que lui confère son exposition aux regards.

Tous les animaux ont-ils une peau ?
Pas exactement : au sens strict, la peau est l'apanage des seuls vertébrés. Pour désigner l'ensemble des tissus qui recouvrent un animal quel qu'il soit, on parlera de téguments. Parmi ces derniers, quelle variété ! Chez les organismes unicellulaires, il s'agit de la membrane cellulaire et du revêtement qu'elle peut sécréter : la paroi de nombreuses bactéries, par exemple, leur confère une forme bien définie. Quant aux invertébrés, leur tégument est une couche de cellules épithéliales, faite de plusieurs types de cellules comme les cellules sensorielles ou les glandes. Elle peut porter des cils, voire des épines, et secréter des revêtements qui vont du manteau muqueux des anémones ou des méduses à la cuticule rigide et articulée des insectes. Cette dernière est en quelque sorte un squelette externe, dur et composé de plusieurs couches de chitine, auquel sont attachés les muscles. Les vertébrés, eux, ont un squelette interne, et c'est leur peau, faite de deux couches principales - épiderme et derme -, qui assure l'interface avec le milieu aquatique ou aérien. Certains vertébrés sont restés marins, d'autres ont conquis le milieu aérien, et leur peau s'est adaptée. Aussi ceux des amphibiens qui sont restés aquatiques ont-ils une peau fine, recouverte de mucus. Leurs congénères terrestres ont au contraire une peau plus épaisse, cornée. Quant aux reptiles, encore plus affranchis de l'eau, leur peau très épaisse va jusqu'à recevoir, parfois, des contributions osseuses du derme. Ils ont, au cours de l'évolution, donné naissance aux oiseaux recouverts de plumes, indispensables à la régulation de la température interne. Enfin, avec la peau élastique des mammifères, foin de plumes et place aux poils, là encore selon une échelle très variable : peau glabre chez les cétacés comme les dauphins, très poilue chez les ours polaires.

La peau : barrière ou lieu d'échanges ?
Contrairement à des idées reçues qui eurent longtemps la vie dure, la peau n'est pas qu'une simple enveloppe : c'est aussi un lieu d'échanges. Certes, elle joue le rôle de contenant en empêchant que les liquides vitaux comme la lymphe ne s'échappent du corps. Chez l'homme, les cellules cornées et le film hydrolipidique - mélange de sueur et de sébum sécrétés par des glandes distinctes - se révèlent, à cet égard, très efficaces. Elle joue également le rôle de barrière immunitaire via certaines de ses cellules, les cellules de Langerhans. Celles-ci, les premières à se trouver au contact d'un micro-organisme infectieux, migrent ensuite vers les ganglions les plus proches pour présenter les antigènes étrangers aux lymphocytes, et les activer. Mais la peau est aussi un lieu d'échanges considérables, absolument vitaux pour certaines espèces. C'est le cas des amphibiens. Même si l'adulte fait l'acquisition de poumons, il garde une capacité à respirer par la peau, héritée du temps où il était larve. Lisse, nue, très fine et recouverte d'un mucus gluant, cette peau laisse pénétrer l'oxygène qui va gagner les vaisseaux sanguins localisés en surface. Elle est aussi perméable à l'eau dans les deux sens. Mais le mucus, qui préserve son humidité, empêche l'évaporation et évite la déshydratation due au vent et au soleil. D'autres animaux utilisent la peau de façon annexe pour respirer. Le turbot, par exemple et plus généralement les poissons plats dépourvus d'écailles, pompe 30 % de l'oxygène dont il a besoin par cette voie ! Faculté qui lui permet de résister à l'appauvrissement du milieu en oxygène, voire à... sa mise hors de l'eau. La peau joue aussi un rôle dans les échanges de chaleur, notamment chez les animaux homéothermes comme les mammifères qui doivent garder leur température constante. Enfin, n'oublions pas la capacité qu'ont les substances lipidiques à franchir cette barrière, propriété qui intéresse au plus haut point l'industrie pharmaceutique : là réside l'intérêt des patchs, dont les molécules diffusent à travers la peau et sont absorbées plus lentement par l'organisme que des médicaments ingérés.

Qu'est-ce que la chair de poule ?
En amont, se trouve le frisson, réponse au froid de la plupart des espèces à sang chaud, dont la température est indépendante de celle du milieu ambiant. La contraction des muscles sous-cutanés provoque alors une augmentation de la température au niveau de la peau. Puis apparaît la chair de poule, résultat de la contraction des muscles horripilateurs situés au niveau du sac dans lequel se trouve le poil. Qui dit contraction, dit gonflement, d'où la petite bosse caractéristique à la surface de la peau. En même temps, le gonflement de ce sac fait que le poil se dresse. Un souvenir du temps où l'homme était beaucoup plus poilu et où, comme d'autres animaux à fourrure et à plumes, il pouvait contrôler l'épaisseur de la couche d'air emprisonnée dans ses phanères en tirant parti de l'érection de sa pilosité pour s'isoler du froid... Fourrure et plumes ne sont pas les seuls moyens mis en place par les homéothermes pour se protéger du froid. N'oublions pas la couche de graisse sous-cutanée ! Elle est primordiale chez les animaux aquatiques comme le phoque.

Pourquoi transpire-t-on ?
Lorsqu'il fait chaud, les animaux à sang chaud cherchent à abaisser la température de leur peau. Les grandes oreilles des éléphants leur sont bien utiles pour se rafraîchir ! Quatre mètres carrés recto verso, parcourus par un important réseau de vaisseaux sanguins : voilà qui représente une considérable surface d'échange avec l'air. C'est donc en battant des oreilles que l'éléphant abaisse sa température sanguine. Un système original, mais loin d'être le plus répandu : chez de nombreuses espèces, on observe un mécanisme de refroidissement par évaporation d'eau. A quel niveau ? Les poumons ou la peau. On parle alors de halètement ou de sudation. L'eau peut aussi provenir de la salive et être répartie sur le corps par léchage comme chez le rat, ou de l'urine, comme chez certains oiseaux tropicaux. L'éléphant encore lui utilise l'eau de son bain, et le nombre important de ses rides cutanées fait que l'humidité y perdure plus que sur une peau lisse. Et la sudation ? Elle n'est utilisée que par quelques mammifères seulement, dont l'homme, les équidés et les camélidés. Avec ses 500 à 1 000 glandes sudoripares/cm2, l'homme détient un record quantitatif et qualitatif. Car, lorsque les glandes sudoripares ne sont présentes qu'à certains endroits bien spécifiques, comme la pulpe digitale chez les chats, la sueur est bien peu efficace en matière de refroidissement... C'est qu'elle a aussi d'autres fonctions. Il y a en effet deux types de glandes sudoripares : les glandes eccrines et les glandes apocrines. Ce sont les premières qui, réparties sur tout le corps, sécrètent une sueur qui forme un film aqueux à la surface de la peau et la protège des agressions. Lorsque la température devient supérieure à 37 °C ou en cas d'effort musculaire intense, c'est cette sueur qui joue le rôle de régulateur thermique. Les glandes apocrines, elles, ne sont localisées qu'en certains points du corps aisselles, aine, anus chez l'homme. La production de sueur par ces glandes ne répond pas à une stimulation thermique mais à des stimuli émotionnels importants ou à des hormones sexuelles. Chez l'homme, leur rôle n'est pas bien connu, mais chez les autres mammifères, elles sont impliquées dans la reconnaissance olfactive entre individus et jouent parfois un rôle dans la sexualité - comme chez le célèbre putois.

La peau se renouvelle-t-elle ?
« Il était un pauvre serpent qui collectionnait toutes ses peaux : l'Homme. » En l'occurrence, Jean Giraudoux avait tort. Car même si l'on n'y pense pas de prime abord, l'homme, comme tous les mammifères, voit sa peau constamment renouvelée ! Ce sont les cellules basales de l'épiderme qui, en migrant, remplacent les cellules mortes en surface, perdues par desquamation. C'est qu'il y a, dans les follicules pileux des mammifères adultes, des cellules souches multipotentes capables d'engendrer toutes les lignées cellulaires épithéliales de la peau. Ce sont elles qui donnent naissance, tout au long de la vie de l'animal, aux cellules basales de l'épiderme, et assurent son renouvellement. Elles, également, qui interviennent dans le processus de cicatrisation. En cas de blessure, la peau est en effet capable de s'autoréparer, soit par la migration de cellules basales de l'épiderme sain, soit par la migration de cellules souches en provenance des follicules pileux. Voilà qui ouvre de nouvelles perspectives dans les cas de cicatrisation difficile. On peut imaginer déposer, sur la plaie, des molécules capables d'orienter ces cellules souches vers leur différenciation en épiderme. Et s'en servir aussi, peut-être, pour reconstruire une peau de qualité chez les grands brûlés.

Tous les animaux ne renouvellent pas leur peau de cette manière progressive. Pour grandir, les reptiles se défont de leur peau lors de la mue. Lors de ce phénomène, les cellules germinatives de l'épiderme se multiplient pour former une nouvelle couche de cellules kératinisées qui va se placer sous l'ancienne. Un liquide visqueux, la lymphe, diffuse alors sous cette dernière. Le passage de la lymphe et l'action d'enzymes créent un espace qui sépare l'ancienne couche cornée de la nouvelle, et l'animal peut alors quitter sa vieille peau. Les tortues et les crocodiliens muent par petits lambeaux, les lézards en plusieurs grands morceaux, les serpents en une seule fois.

Comment et pourquoi fabrique-t-on de la peau artificielle ?
La peau est le premier tissu à avoir été reconstruit en laboratoire. Au cours des années 1970, l'Américain Howard Green dépose des cellules épidermiques dans des boîtes en plastique contenant des milieux nutritifs. Il observe alors que non seulement les cellules ne meurent pas, mais qu'au contraire elles se multiplient pour donner un épiderme stratifié. Les scientifiques parviennent ensuite à mettre en culture d'autres cellules cutanées comme les mélanocytes et obtiennent un épiderme qui ressemble à de la peau d'embryon. Puis une équipe française découvre qu'en plaçant cette peau à l'interface air-liquide une couche cornée faite de plusieurs assises de cellules mortes se forme spontanément. C'est précisément ce type d'épiderme de culture qui est utilisé pour greffer les grands brûlés. Dans un premier temps, un pansement de collagène, qui sert d'équivalent dermique et va boucher les plaies, est placé sur la brûlure nettoyée. Parallèlement, des cellules épidermiques prélevées par biopsie sur des tissus non brûlés sont mises en culture. A partir de deux centimètres carrés de tissu, on obtient en quinze jours une surface totale d'un mètre carré. Les lambeaux d'épiderme sont alors agrafés sur le pansement de collagène. Le derme, lui, se reconstituera de lui-même après plusieurs années.

Mais il est aussi possible de reconstituer, en laboratoire, la peau dans son entier : l'épiderme avec ses différentes cellules kératinocytes, mélanocytes, cellules de Langerhans, le derme avec ses fibroblastes qui vont synthétiser le collagène et l'élastine, des vaisseaux sanguins, des cellules immunitaires et des éléments nerveux. On sait même y mettre des embryons de poils. Cette peau reconstruite avec plusieurs types cellulaires n'est pas utilisée dans les greffes de peau, où l'on ne greffe que de l'épiderme. Elle est mise à profit en cosmétologie et en pharmacologie. Débarrassée de sa couche cornée elle devient, du coup, une muqueuse, elle permet, par exemple, de tester la pénétration du virus du sida et l'efficacité des médicaments antiviraux. Dans le domaine des allergies, cette peau artificielle permet d'évaluer les réactions allergiques cutanées à divers produits et, dans le cas de l'eczéma, de tester différentes solutions pour éviter que les cellules de Langerhans ne migrent vers les ganglions et ne déclenchent la réaction allergique. Par ailleurs, tout ce que l'on apprend sur la reconstitution cutanée sert à élaborer des protocoles de reconstitution d'autres muqueuses ou d'autres épithéliums, comme celui des intestins.

Le contact est-il essentiel ?
La peau est l'organe du toucher, le deuxième sens après la vue en termes d'informations traitées par le cerveau. Ce sont les terminaisons des fibres nerveuses situées dans la peau, les récepteurs sensoriels, qui vont réagir à la pression, à la température ou à la douleur. Toutes les parties du corps n'ont pas la même sensibilité car elles ne possèdent pas le même nombre de récepteurs tactiles. Chez l'homme, ces récepteurs sont plus nombreux au niveau de la paume des mains, de la pulpe des doigts, et du visage, qu'au niveau du dos. Ces récepteurs vont traduire, en ce qui concerne le toucher, l'intensité, la force et la durée de la pression qu'ils subissent. L'information est ensuite transmise au cortex cérébral, au niveau de l'aire sensitive corticale qui est la projection précise de tous les points du corps. Le cerveau élabore alors une réponse au stimulus détecté par les récepteurs tactiles.

Le toucher est un sens vital, qu'il soit manuel ou autre. C'est, par exemple, grâce à un léchage intensif que certains animaux mettent en route les fonctions vitales de leur progéniture. Mais le toucher est essentiel dès avant la naissance : les contacts in utero sont indispensables aux petits des mammifères. Le psychologue américain Harry Harlow, spécialiste du développement et du comportement humain, avait démontré, dans les années 1960, l'importance du contact chez les bébés singes. Les contacts physiques permettent au prématuré de développer et de structurer les connexions nerveuses de l'encéphale et l'amènent ainsi au même niveau de développement que le bébé né à terme. Le contact cutané représente, de plus, une forme de développement de l'identité. Lors d'hospitalisations prolongées, la privation du contact physique avec la mère et le manque de stimulus peuvent plonger l'enfant dans un véritable état dépressif. Plus tard, le toucher continue à avoir une grande importance : il acquiert notamment une fonction sociale, qu'illustre par exemple la poignée de main. Cette fonction sociale n'est pas l'apanage des primates. On la retrouve, sous une forme ou une autre, chez nombre d'animaux, les orques, par exemple, à la peau très sensible. Lors de la parade nuptiale, ils se frottent contre les galets. Cela n'est pas signe de démangeaisons dues à de quelconques parasites dont ils essaieraient de se débarrasser, mais fait partie du rituel amoureux.

La peau reflète-t-elle nos états d'âme ?
Peau et système nerveux ont une origine embryonnaire commune, puisqu'ils proviennent tous deux de l'ectoderme. En quelque sorte, la peau est un peu comme un « cerveau étalé ». Sous l'angle neurobiologique, elle a gardé quelques propriétés du système nerveux. Et sous l'angle psychanalytique, elle pourrait révéler des troubles psychologiques plus ou moins enfouis dans l'inconscient.

C'est l'observation de l'évidence d'un lien entre certaines maladies cutanées et le stress psoriasis, acné... qui a relancé, ces dernières années, la recherche de liens entre peau et système nerveux. Comme la peau est innervée, on a réalisé qu'elle renfermait des neuromédiateurs dès la découverte de ceux-ci. Mais, jusqu'à une date récente, on leur avait conféré un rôle uniquement sensitif ou neurovégétatif. Ce n'est que depuis une vingtaine d'années qu'on a commencé à comprendre que les fibres nerveuses sécrètent des neuromédiateurs dans des circonstances variées, et qu'ils jouent un rôle dans l'inflammation, dans l'immunité et dans toutes les fonctions cutanées. Puis on a découvert, il y a moins de dix ans, que les cellules cutanées produisaient elles aussi des neuromédiateurs. Aujourd'hui, on sait que tous les types de cellules de la peau en sont capables. Prudence cependant, car pour l'instant, ces résultats n'ont été obtenus qu' in vitro. In vivo, l'incertitude demeure : quand et comment y a-t-il production ? Une relation difficile à étudier, en raison de l'instabilité des neuromédiateurs.

Aujourd'hui, les chercheurs savent que le système nerveux contrôle de nombreuses fonctions cutanées et que des anomalies de ce contrôle sont à l'origine de maladies cutanées ou vont aggraver ces maladies. Certaines maladies de peau peuvent donc avoir une composante psychosomatique, qui doit être recherchée. Si elle est diagnostiquée, la prescription de psychotropes ou une psychothérapie peuvent être un complément utile au traitement dermatologique. L'état de la peau serait donc le reflet de nos agitations. Ce type de recherche présente un grand intérêt pour l'industrie. Peut-on rêver qu'un jour l'application d'une pommade suffira à nous déstresser ?

La peau est-elle un objet symbolique ?
La peau humaine est un organe visible et, comme tel, un élément essentiel du paraître. Elle est le support de certaines formes de communication entre les hommes, et entre les hommes et leurs dieux, notamment par la réalisation des tatouages, pratique universelle vieille de 40 000 ans. Les tatouages sont associés à de multiples religions : c'est un moyen de dialogue avec le monde des divinités, une protection contre les mauvais esprits... Ce rituel se différencie de la scarification, incision qui aboutit à une cicatrice en creux ou en relief, et sculpte la peau foncée alors que le tatouage utilise les pâleurs de la peau claire. Les scarifications sont notamment réalisées dans les rites de passage à l'âge adulte. Le tatouage pratiqué aujourd'hui en Occident se dégage de toute symbolique religieuse, mais participe au langage social. Langage qui inclut aussi le maquillage, l'usage du parfum, la coiffure... ou le bronzage, qui a pris son essor au XXe siècle lorsqu'il a cessé d'être la preuve de l'obligation de participer aux travaux paysans pour devenir le témoin de la capacité du « bronzé » à se payer des vacances au soleil.

La peau joue un autre rôle extrêmement important du point de vue du paraître : il est le premier organe à montrer des signes de vieillissement. Car avec l'âge, les fibroblastes synthétisent moins de collagène, et les fibres élastiques cessent de se former après cinquante ans. La lutte contre le vieillissement cutané est presque aussi vieille que les rides elles-mêmes : elle est déjà mentionnée sur les papyrus égyptiens !

Par Ursula Lenseele, Daniel Schmitt

DOCUMENT larecherche.fr LIEN

MUSIQUE CONTEMPORAINE

05/05/2016

LIEN STOCKHAUSEN

LE SANG

29/04/2016


Le sang


back to basic - dans mensuel n°327 daté janvier 2000 à la page 66 (2969 mots) | Gratuit
Chargé de symboles ambivalents, de vie et de mort, le sang oxygène, nourrit, nettoie et défend nos tissus. Il est indissociable de la moelle osseuse, qui le renouvelle. Elle déverse tous les jours des milliards de cellules dans ce fluide vital. Moelle et sang forment un monde très dynamique, qui évolue et se transforme selon les besoins.

Pourquoi le sang est-il si vital ?
Chasseurs, mais aussi proies, nos ancêtres savaient bien s_r que le sang, c'est la vie. En témoignent des bisons tachés de rouge sur les grottes du Paléolithique. Mais il fallut attendre le XVIIe siècle et l'inventeur néerlandais du microscope, Antonie Van Leeuwenhoek, pour en découvrir les premiers globules, les rouges. Quant aux principales fonctions du sang et de ses éléments, c'est tout au long du XIXe siècle qu'elles commencèrent peu à peu à être élucidées. Et ce n'est pas fini...

Fluide vital pulsé par le coeur au long des 200 km de l'arborescence des vaisseaux, le sang irrigue tous les tissus et les organes, les nourrit, les nettoie, les défend. Au travers des capillaires, il fournit aux cellules l'oxygène et le glucose qu'elles br_lent pour en tirer de l'énergie. Prenant le relais du tube digestif, il leur distribue les nutriments indispensables à leur métabolisme. A lui seul, par exemple, notre cerveau consomme 20 % de l'oxygène apporté par le sang. Au passage, ce dernier récupère le gaz carbonique, qu'il libère dans les poumons, et les déchets du fonctionnement cellulaire, qu'il évacue vers les reins. Il régule les échanges de sels entre les tissus de l'organisme, assurant ainsi une bonne répartition de la pression entre les membranes cellulaires.

Du sang dépendent aussi les défenses de notre organisme à l'ère du sida, qui l'ignore encore ?. Il dispose d'une équipe de spécialistes - bombardiers, tueurs, épurateurs... - qui, en temps normal, réagissent dès que se présentent bactéries, virus, parasites, une cellule anormale, voire un allergène*...

Le sang assure lui-même la surveillance et la réparation de son circuit. En cas de blessure d'un vaisseau, il répare la brèche. Loin d'être une simple suspension de cellules, il véhicule aussi d'innombrables molécules d'information - des hormones, des messagers chimiques.

Quant au vaisseau sanguin, il est loin d'être un tuyau inerte : sa surface sensible, tactile, est très active. Elle régule les passages des nutriments et des cellules de défense, échange aussi des molécules messagères avec le sang. Respiration, immunité, réparation, nutrition, communication, ces cinq fonctions majeures font bien du sang un organe aussi primordial que le cerveau ou le coeur.

De quoi est-il composé ?
Un homme de 70 kg a cinq litres de sang, une femme en a quatre. Un peu plus de la moitié est un liquide transparent de couleur paille, le plasma. Le plasma c'est surtout de l'eau, qui véhicule des sels minéraux calcium, sodium, magnésium, potassium..., le sucre, des molécules messagères - hormones, interleukines* - et leurs protéines de transport. Il y a 70 g de protéines par litre de sang. L'albumine, qui retient l'eau comme une éponge, est la plus abondante. Les immunoglobulines les anticorps participent à la défense immunitaire. D'autres protéines apolipoprotéines transportent les graisses ou encore interviennent, comme le fibrinogène, dans la coagulation.

Bien que liquide, le sang est pour les biologistes un tissu très organisé, dans lequel circulent de nombreuses cellules. Les globules rouges, ou hématies, sont les outils de notre respiration. Nous en avons quatre à cinq millions par mm3 de sang. Ces disques biconcaves, de 7 à 8 micromètres mm de diamètre, circulent dans les vaisseaux où ils restent confinés, empilés comme des rouleaux de pièces de monnaie. Les hématies n'ont pas de noyau. Ce sont des sacs d'hémoglobine, un pigment comportant du fer, qui les colore et transporte l'oxygène qu'il capte et relâche facilement. Leur morphologie et la structure de leur membrane confèrent aux hématies solidité, élasticité et capacité de déformation, indispensables pour pénétrer dans les capillaires les plus fins. Enfin, cette membrane est hérissée de protéines sucrées particulières, déterminant l'appartenance aux groupes sanguins.

Nous avons beaucoup moins de globules blancs, les spécialistes de la défense immunitaireI. Une goutte de sang en contient de 4 à 8 000/mm3. Il s'agit d'une vaste famille de " vraies " cellules possédant un noyau, qui peuvent s'infiltrer dans les tissus. Les globules blancs polynucléaires en fait, ils n'ont qu'un noyau, mais de forme biscornue sont chargés de détruire les envahisseurs étrangers, surtout les bactéries. Les monocytes activés appelés alors macrophages sont des épurateurs. Ils phagocytent et dégradent presque tout : les micro-organismes infectieux, les cellules abîmées, les toxines... Les macrophages ont aussi une fonction immunitaire spécifique, car ils présentent les antigènes* à des cellules appartenant au troisième type de globules blancs, les lymphocytes, plus précisément les lymphocytes T T pour thymus, un organe lympho_de. Ces derniers sont préposés à la surveillance des virus et des tumeurs, et tuent les cellules leur présentant un antigène étranger. D'autres, les lymphocytes B B pour la bourse de Fabricius*, produisent les immunoglobulines : les anticorps circulants. La membrane des lymphocytes - tout comme celle de la plupart de nos cellules - porte des marqueurs essentiels, dits HLA*. Les globules blancs interagissent en permanence, grâce à des signaux chimiques.

Enfin, les plaquettes sont les acteurs de l'hémostase, autrement dit de l'ensemble des processus qui permettent l'arrêt du saignement. Ce sont les plus petites cellules du corps leur diamètre : 1 à 2 mm.

En principe, on compte 150 000 à 400 000 plaquettes/mm3 de sang. Ces cellules minuscules ont une structure complexe et possèdent des fonctions adhésives et contractiles. S'il y a rupture de la paroi d'un vaisseau, elles se collent dessus et colmatent la brèche.

Comment se renouvelle-t-il ?
Comme tous nos organes, le sang, ou plutôt ses cellules, vieillissent et meurent. Une hématie vit environ trois mois, une plaquette une dizaine de jours. La grande majorité des globules blancs ne vit que quelques jours. Seuls certains, les lymphocytes T à mémoire, peuvent perdurer pendant des mois ou des années.

Il y a donc un renouvellement constant, finement régulé, des cellules. Ce qui est original, c'est que le sang ne les produit pas lui-même. Chez le foetus, c'est le foie et la rate qui s'en chargent. Chez l'adulte, elles naissent et se différencient en permanence dans la moelle osseuse. Seule exception, la spécialisation des lymphocytes T se déroule dans le thymus. Ainsi, nos os - fémurs, humérus, clavicules, côtes, sternum et bassin - produisent continuellement du sang nouveau. Tout débute avec une cellule souche, dite multipotente car elle peut donner naissance à toutes les lignées de cellules sanguines. Puis se succèdent différentes étapes, au cours desquelles les globules formés, encore immatures, acquièrent peu à peu leur spécialité. Le destin de toutes ces cellules est étroitement contrôlé par des molécules comme les facteurs de croissance ou les interleukines. Une hormone, l'EPO l'érythropo_étine donnée aux insuffisants rénaux... et prise par les sportifs dopés, stimule la production des globules rouges. Ceux-ci, avant d'être déversés dans le sang, expulsent leur noyau. Le tout prend une petite semaine pour les hématies, deux semaines pour les globules blancs.

La naissance des plaquettes est étonnante. Le précurseur n'engendre pas deux cellules filles. Il duplique son contenu en ADN sans se diviser. Il devient une cellule géante ayant non pas deux lots de chromosomes, mais 4, 8, 16, 32, voire 64. Cette cellule finit par avoir un aspect de pieuvre. Ses multiples bras de cytoplasme se fragmentent ensuite pour donner une quantité de plaquettes.

Il arrive que la moelle ne produise pas assez de cellules, ou qu'elle soit envahie par des cellules tumorales. Pour pallier ces troubles très graves, on donne au malade des cellules souches, provenant de la moelle, ou du sang dans ce cas, on cultive d'abord les rares cellules souches circulantes, ou encore extraites du sang de cordon ombilical, plus riche en cellules souches. Par ailleurs, on découvre que la moelle comme le système nerveux abrite d'autres cellules souches, appelées cette fois totipotentes, car elles peuvent générer n'importe quel type cellulaire. La moelle aurait donc aussi une fonction de régénération des tissus.

Que se passe-t-il lorsque nous nous blessons ?
Lors d'une blessure, le vaisseau sanguin lésé se contracte. Très vite, débute une première étape que les biologistes appellent la formation du clou plaquettaire. Les plaquettes se collent sur la lésion et changent de façon spectaculaire. Elles se collent les unes aux autres et forment un bouchon, d'abord un peu lâche, puis de plus en plus dense. Car grâce aux substances qu'elles sécrètent, elles recrutent d'autres plaquettes. Pour un petit vaisseau sanguin, cela peut suffire.

En revanche pour des vaisseaux plus larges, se met en place une deuxième étape, la coagulation, la prise en masse du sang. Elle est encore plus complexe. De nombreuses molécules entrent en jeu : une cascade d'enzymes, des facteurs de coagulation et des anticoagulants... Pour simplifier, le plasma contient une protéine soluble, le fibrinogène. Sous l'action d'une enzyme, la thrombine, il se transforme en fibrine insoluble. Les brins de fibrine renforcent le clou plaquettaire et emprisonnent les cellules sanguines, formant le caillot. Après la cicatrisation, ce réseau de fibrine est détruit par d'autres enzymes, et le caillot est dégradé : c'est la fibrinolyse. On voit bien pourquoi tout déséquilibre entre coagulation et fibrinolyse est dangereux : trop rapide, la coagulation peut conduire à la thrombose un caillot qui bouche les vaisseaux, trop lente, et c'est l'hémorragie qui guette.

Qu'arrive-t-il en cas de pénurie de cellules sanguines ?
Certains cancers, leurs traitements, des virus, des maladies génétiques ou auto-immunes, les médicaments... peuvent provoquer ces pénuries, appelées cytopénies. Quant à leurs conséquences, elles dépendent évidemment du type cellulaire qui fait défaut.

Les anémies sont dues à une baisse du taux normal d'hémoglobine, en général associée à une diminution du nombre de globules rouges circulants. Une personne anémiée est pâle, s'essouffle, et l'effort la fatigue beaucoup. Les causes les plus fréquentes d'anémies sont les hémorragies, et donc les pertes en fer, les inflammations qui provoquent des troubles du métabolisme du fer, les carences nutritionnelles... Dans le cas le plus simple et le plus courant d'anémie, celle qui est provoquée par une hémorragie, on donne du fer au patient.

Quant aux autres cytopénies, touchant les globules blancs ou les plaquettes, une de leurs causes importantes est l'insuffisance de la moelle. Manquer de globules blancs expose à des infections sévères, et manquer de plaquettes, nous l'avons vu, provoque des hémorragies. Certaines de ces pathologies peuvent être traitées par la greffe de moelle osseuse.

Le sang peut-il devenir cancéreux ?
Oui et non : en fait, ce ne sont pas les cellules sanguines qui deviennent tumorales, mais celles de la moelle osseuse. Les leucémies* résultent d'un blocage de la différenciation des cellules souches : immatures et devenues immortelles, elles s'accumulent dans la moelle, le sang, la rate, le foie et les ganglions. Selon l'étape bloquée, il y a donc de nombreux types de leucémies. Elles ont d'ailleurs joué un rôle essentiel dans la compréhension des mécanismes du cancer. La plupart des anomalies des gènes impliqués dans les cancers ont d'abord été caractérisées dans les leucémies. On comprend donc pourquoi on traite les leucémies comme les tumeurs solides chimiothérapie, radiothérapie. Avec l'atout supplémentaire de pouvoir remplacer la moelle malade par une greffe.

Ce rôle pilote des leucémies en cancérologie se poursuit avec la génomique. L'étude des chromosomes et l'établissement de la carte d'identité moléculaire de ces maladies permettent d'identifier l'anomalie biologique responsable et de définir un traitement spécifique. Un exemple emblématique est celui de la leucémie dite à promyélocytes. Elle a pour origine un remaniement chromosomique qui rapproche deux gènes de façon anormale, conduisant à la synthèse d'une protéine dite de fusion. L'un de ces deux gènes code le récepteur d'un dérivé de la vitamine A, l'acide rétino_que. D'où l'idée de donner aux malades de l'acide rétino_que qui détruit la protéine de fusion et rétablit la capacité de différenciation des cellules de la moelle. C'est ainsi qu'est apparu, il y a quelques années, le premier, et le seul, traitement ciblé et efficace d'un cancer.

Comment a-t-on découvert les groupes sanguins ?
Au XVIIe siècle, on tenta beaucoup de transfusions, souvent mortelles. Au point que Louis XIV interdit cette pratique. Bien après, en 1900, à Vienne, le jeune Karl Landsteiner prélève le sang de ses collaborateurs. Il mélange le sérum des uns avec les globules des autres et s'aperçoit qu'il arrive que le sérum agglutine les globules rouges, ces amas pouvant provoquer les accidents transfusionnels. Il venait de découvrir les premiers groupes sanguins, le système ABO. On comprend ensuite assez vite que les humains se répartissent en quatre groupes, selon qu'ils possèdent l'antigène A, le B, les deux antigènes A et B, ou aucun d'entre eux, un groupe appelé O en fait, pour ce dernier, il existe aussi un antigène, appelé H. Nous avons tous des anticorps dirigés contre les antigènes des autres groupes que le nôtre. Ces anticorps sont dits naturels, car ils se forment très tôt dans la vie, notamment parce que des bactéries de la flore intestinale portent ces antigènes ABO.

C'est encore K. Landsteiner qui découvrit en 1939 le facteur rhésus, après avoir cette fois fait son mélange avec les globules rouges d'un macaque rhésus. L'un de ses élèves fit le lien entre ce facteur et la très grave maladie hémolytique du nouveau-né. Cette maladie est due à une incompatibilité entre les facteurs rhésus de la mère et de son enfant. On sait maintenant que le système rhésus comprend de nombreux sous-groupes. Une troisième étape importante est la découverte par Jean Dausset, en 1952, du complexe majeur d'histocompatibilité, ou CMH. On l'appelle aujourd'hui le système HLA. Ce sont des marqueurs présents sur les globules blancs, mais aussi sur les cellules de nos tissus, dont l'importance est capitale lors des greffes. Le système HLA est d'une grande complexité et définit notre identité : on connaît aujourd'hui six cents millions de combinaisons HLA. En fait, il existe des dizaines d'autres systèmes de groupes sanguins. Mais ils ne sont pas gênants pour les transfusions.

La transfusion sanguine est-elle s_re aujourd'hui ?
De grands progrès ont en effet été réalisés en France depuis le début des années 1990, avec la réorganisation totale du système de transfusion. Différentes techniques chauffage des produits, dépistage des virus dans les dons de sang... permettent d'éviter au maximum la contamination des produits de transfusion. Mais en médecine, comme dans d'autres domaines, le risque zéro n'existe pas. On ne connaît pas, par exemple, tous les virus transmis par le sang. Et certains se posent des questions à propos du prion, l'agent incriminé dans la maladie de la " vache folle ". Ainsi, par mesure de précaution, les Etats-Unis, le Canada, et tout récemment la Nouvelle-Zélande, ont-ils décidé d'exclure du don de sang les personnes ayant séjourné au Royaume-Uni au plus fort de la crise.

Peut-on faire du sang artificiel ?
Non, on ne sait pas vraiment fabriquer du sang. Ses fonctions et ses constituants sont beaucoup trop complexes. Toutefois, les risques infectieux liés aux transfusions ont poussé les chercheurs à trouver des transporteurs d'oxygène pour remplacer les globules rouges. Sans réel succès. Plusieurs compagnies ont mis au point des solutions d'hémoglobines stabilisées par modification biochimique, dont certaines sont en développement clinique. Mais elles posent des problèmes d'effets secondaires mal élucidés. Une deuxième stratégie consiste à développer des molécules chimiques. La principale d'entre elles est un perfluorocarbone PFC. Ce produit est autorisé aux Etats-Unis et au Japon dans des cas précis réparation des artères coronaires, urgence pour des personnes refusant la transfusion. Avec les techniques de génie génétique, on a réussi à produire des protéines sanguines de substitution. C'est le cas des facteurs VIII et IX de coagulation, destinés au traitement de l'hémophilie. Mais finalement la façon la plus efficace de compenser une forte perte de sang, accidentelle ou survenue lors d'une opération chirurgicale, reste la transfusion. Et la seule solution entièrement s_re et efficace est l'autotransfusion : donner son propre sang, en prévision d'une opération.

Tous les animaux ont-ils du sang ?

Non. Par exemple, les cellules des animaux très simples, comme les éponges ou les anémones de mer, assurent elles-mêmes leur approvisionnement en oxygène et nutriments. Ce n'est que lorsque les animaux deviennent plus grands et plus complexes que se met en place au cours de l'évolution un système d'irrigation facilitant le transport de ces substances aux cellules enfouies au plus profond de l'organisme. Et encore, l'appareil circulatoire ne devient-il complètement clos à quelques exceptions près que chez les vertébrés. Or la majorité des animaux sont des invertébrés 95 % des espèces. Les zoologistes appellent leur sang l'hémolymphe. La plupart du temps, les pigments transporteurs d'oxygène sont en solution dans l'hémolymphe ; parfois, ils sont protégés dans des cellules. Seuls les insectes n'ont pas de pigments respiratoires : leurs trachées très ramifiées apportent directement l'oxygène aux différents organes.

L'hémoglobine est le plus familier de ces pigments : avec sa couleur rouge typique, elle est présente dans la plupart des embranchements. Mais on trouve une hémolymphe à pigment vert chez des vers segmentés et un pigment bleu chez certains mollusques et arthropodes.

Que sait-on de l'évolution des hémoglobines ou des hématies ? Peu de chose. A l'origine, l'hémoglobine pourrait avoir été une molécule chargée de piéger l'oxygène, toxique pour des organismes anaérobies. En témoigne celle des nématodes qui se lie avec une grande affinité à l'oxygène, mais le libère difficilement.

Par ailleurs, en dehors des mammifères, tous les vertébrés - poissons, amphibiens, reptiles et oiseaux - ont des globules rouges avec noyau. La perte de ce noyau au cours de l'évolution a été interprétée comme un moyen d'améliorer la souplesse des hématies pour se faufiler dans les capillaires et d'augmenter leur stock d'hémoglobine donc d'augmenter la capacité du sang à se charger en oxygène. Cette mutation serait apparue quand se sont séparés les dinosaures ancêtres des oiseaux et les mammifères. Seules exceptions connues à cette règle chez les vertébrés, les larves d'anguille et une famille de poissons de l'Antarctique au nom barbare.

DOCUMENT larecherche.fr LIEN

CELLULES SOUCHES

23/04/2016

Des cellules souches qui renforcent la mémoire


palmarès - par Marine Cygler dans mensuel n°471 daté janvier 2013 à la page 50 (1495 mots)
On ignorait à quoi servaient les nouveaux neurones qui se forment dans le cerveau des mammifères adultes. Une équipe de l'Institut Pasteur vient de prouver que certains d'entre eux améliorent la mémoire et l'apprentissage olfactifs.

Des milliers de nouveaux neurones apparaissent chaque jour dans le cerveau adulte. Décrit chez le canari au début des années 1980, ce phénomène de neurogenèse a ensuite été mis en évidence chez les rongeurs puis chez l'homme au cours des années 1990. Cette découverte a rendu caduque l'idée selon laquelle le nombre de neurones était maximal à la naissance, et ne pouvait que décroître ensuite.

Mais à quoi ces nouveaux neurones servent-ils ? On suspectait qu'ils interviennent dans l'apprentissage et la mémorisation. Pierre-Marie Lledo et ses collègues de l'Institut Pasteur et du CNRS viennent de le prouver : chez la souris, les nouveaux neurones améliorent la capacité des animaux adultes à discriminer des odeurs inconnues très proches, et à s'en souvenir [1].

Zones germinatives
Dans le cerveau des mammifères adultes, les nouveaux neurones apparaissent dans deux zones : le bulbe olfactif et l'hippocampe [fig. 1]. Ils descendent de cellules souches situées à plus ou moins grande distance, dans deux zones « germinatives » bien délimitées. Lorsqu'elles se divisent, ces cellules souches produisent chacune une nouvelle cellule souche et une cellule appelée précurseur, qui se différencie en neuroblaste. Ceux-ci entament une migration à l'issue de laquelle ils se différencient en neurone. De leur zone germinative au bulbe, les neuroblastes parcourent 4 millimètres chez la souris, et 3 centimètres chez l'homme !

Or, le bulbe olfactif et l'hippocampe ont un point commun : ils sont impliqués dans les processus mnésiques. Le bulbe olfactif joue un rôle essentiel dans la mémoire olfactive. Tandis que l'hippocampe est un acteur central de la mémoire épisodique, celle qui correspond aux épisodes personnellement vécus par un individu à un moment et en un lieu précis.

Taux de survie
« Le bulbe olfactif et l'hippocampe jouant tous deux un rôle important dans une forme ou une autre de mémoire, il était logique de supposer que les néoneurones adultes intervenaient dans ce processus cognitif », explique Serge Laroche, du centre de neurosciences de l'université Paris-Sud, spécialiste de l'hippocampe. Au début des années 2000, cette hypothèse a été renforcée par différents travaux. Par exemple, lorsque des souris étaient élevées dans un environnement enrichi en odeurs, leur bulbe olfactif acquérait deux fois plus de nouveaux neurones que celui de souris élevées dans des conditions standards, et leur mémoire olfactive était bien meilleure [2]. « Mais il ne s'agissait que d'une corrélation, souligne Serge Laroche. Ces résultats ne prouvaient pas un lien de cause à effet. »

Comment mettre en évidence le rôle des nouveaux neurones ? Différents travaux indiquaient que, chez le rongeur, seule une partie d'entre eux survivait. Si l'on arrivait à comprendre pourquoi, peut-être cela fournirait-il aussi une indication quant à leur rôle. Aussi l'équipe de Pierre-Marie Lledo s'est-elle lancée sur cette piste.

« Entre 2002 et 2006, nous avons obtenu différents résultats montrant que le taux de survie des néoneurones augmente quand la souris vit dans un environnement enrichi sur le plan olfactif », indique Pierre-Marie Lledo. Tout portait donc à croire que la survie des nouveaux neurones dépendait de l'activité sensorielle, donc de la stimulation des détecteurs sensoriels situés au niveau de la muqueuse olfactive. « Mais après avoir réalisé des tests de comportement en confrontant les souris à différentes odeurs présentées dans différents contextes, poursuit Pierre-Marie Lledo, nous avons pris conscience que l'activité sensorielle ne suffisait pas. En fait, la survie des néoneurones augmentait quand les souris se trouvaient dans un contexte d'apprentissage olfactif. Par exemple, lorsqu'elles devaient apprendre à discriminer des odeurs similaires. »

En parallèle, d'autres équipes avaient montré que la capacité à discriminer des odeurs augmentait lorsque certaines cellules du bulbe olfactif étaient inhibées. Ces cellules inhibées portent le nom de cellules mitrales. Ce sont elles qui reçoivent les messages sensoriels provenant de la muqueuse olfactive, et qui les transmettent au cortex. Quant aux neurones qui les inhibent, il s'agit essentiellement de neurones appelés « cellules granulaires ». « Or, il se trouve que la plupart des neuroblastes qui atteignent le bulbe olfactif se différencient en cellules granulaires, explique Pierre-Marie Lledo. Nous avons donc émis l'hypothèse que ces cellules granulaires nouvellement formées seraient à l'origine des capacités de discrimination accrues. »

Facultés d'apprentissage
Les neurobiologistes de l'Institut Pasteur ont alors entrepris de réaliser des tests comportementaux tout en stimulant spécifiquement les nouvelles cellules granulaires, et seulement elles. Ils ont pour cela utilisé la méthode la plus précise qui soit à l'heure actuelle : l'optogénétique. Elle consiste à injecter dans des cellules un gène codant une protéine sensible à la lumière, ce qui permet de stimuler ensuite ces cellules par un flash lumineux. En l'occurrence, les chercheurs ont injecté un gène codant une protéine sensible à la lumière bleue dans les neuroblastes en cours de migration vers le bulbe, et ont implanté une diode électroluminescente dans ce dernier. Quand la diode électroluminescente émettait de brefs flashs de lumière bleue (de 5 millisecondes), les néoneurones - et eux seuls - étaient activés.

Dans un premier temps, les chercheurs ont vérifié que la majeure partie des cellules activées par le flash lumineux était bel et bien des cellules granulaires nouvellement formées. Puis ils ont étudié les facultés d'apprentissage de souris adultes réparties en deux groupes. Dans l'un, les souris étaient appareillées avec une diode électroluminescente permettant de stimuler les néoneurones. Dans l'autre, elles ne l'étaient pas.

Il s'agissait pour toutes ces souris d'apprendre à distinguer deux odeurs, et à se comporter différemment en fonction de celle qui leur était présentée : aller chercher une récompense lorsqu'on les mettait en présence de l'une, et ne pas bouger lorsque c'était l'autre. Leur capacité à apprendre était évaluée par le nombre de fois où il fallait leur présenter ces deux odeurs avant qu'elles parviennent à adopter systématiquement le bon comportement.

Une première expérience a consisté à leur présenter deux odeurs très différentes, comme la menthe et l'anis. Les animaux devaient apprendre à aller chercher une récompense en présence de menthe, et à ne pas réagir en présence d'anis. Cette tâche est facile : les animaux n'ont besoin que de quelques essais pour y parvenir. Dans la seconde expérience, les deux odeurs à distinguer étaient cette fois des odeurs semblables : citron ou citronnelle. La tâche d'apprentissage était donc bien plus difficile.

Que s'est-il passé ? Lorsque les odeurs présentées étaient très différentes - menthe et anis -, tous les animaux apprenaient au même rythme, que les néoneurones soient activés ou non. En revanche, lorsque les odeurs présentées étaient similaires, les souris dont les néoneurones étaient activés par le flash lumineux ont appris à les distinguer bien plus rapidement que les autres souris. Douze essais leur ont suffi, contre 28 essais pour leurs congénères. « Les néoneurones facilitent donc l'apprentissage de la tâche la plus difficile », souligne Pierre-Marie Lledo.

Mémoire renforcée
Ce n'est pas tout. Les chercheurs ont également testé la mémoire olfactive de leurs deux groupes de souris : cinquante jours après l'apprentissage initial, les animaux ont dû refaire l'exercice de discrimination des odeurs. Résultat, les souris dont les nouveaux neurones avaient été stimulés pendant l'apprentissage ont mieux distingué les odeurs proches que les souris non stimulées. « En cela, les néoneurones du bulbe se rapprochent de ceux de l'hippocampe, commente Serge Laroche. L'équipe de Susumu Tonegawa, du MIT, aux États-Unis, a en effet montré, en 2012 également, que les néoneurones de l'hippocampe facilitent la distinction entre deux souvenirs proches [3]. »

Les biologistes de l'Institut Pasteur sont toutefois allés plus loin. La fonction cognitive des néoneurones étant identifiée, ils voulaient comprendre ce qui se passait sur le plan cellulaire. Aussi ont-ils entrepris d'enregistrer l'activité des cellules cibles des néoneurones, les cellules mitrales, pendant que les souris réalisaient les tests comportementaux. L'objectif était d'étudier la façon dont ces cellules mitrales réagissaient lorsque les néoneurones étaient stimulés. Ils ont alors constaté que les néoneurones ne se contentaient pas d'inhiber les cellules mitrales : ils les inhibaient de façon synchrone, à la manière d'un chef d'orchestre qui impose un silence à l'ensemble des instruments.

Comment expliquer que cette inhibition améliore la capacité à distinguer des odeurs proches ? Une hypothèse se dessine. Elle découle d'un constat : les cellules mitrales émettent un signal vers le cortex même lorsqu'elles ne sont pas stimulées par les neurones olfactifs. Certes, ce signal est faible. Mais il n'en est pas moins présent, formant une sorte de « bruit de fond ». S'il n'est pas gênant lorsque les cellules mitrales transmettent les signaux bien distincts induits par des odeurs très différentes, il le devient lorsqu'il s'agit de transmettre les signaux semblables induits par des odeurs similaires. « L'ensemble de nos données laisse penser que les néoneurones inhibent les cellules mitrales qui ne produisent que du bruit de fond, explique Pierre-Marie Lledo. Par contraste, les signaux émis par les cellules mitrales activées par les neurones sensoriels ressortiraient donc plus nettement, permettant ainsi de transmettre un signal clair et cohérent au cortex. » L'hypothèse est en cours d'investigation.

Par Marine Cygler

DOCUMENT larecherche.fr LIEN

LES MOUVEMENTS DU REGARD...

16/04/2016

Les mouvements du regard : une affaire de saccades
voir dans le cerveau - par Alain Berthoz, Laurent Petit dans mensuel n°289 daté juillet 1996 à la page 58 (5660 mots)
Que se passe-t-il dans le cerveau quand notre oeil est attiré par quelque chose ou quand nous décidons de regarder un objet, la route qui défile devant soi, un paysage ? Pratiquée sur des animaux, l'électrophysiologie nous donne une connaissance de plus en plus fine des cascades de processus déclencheurs et inhibiteurs à l'oeuvre. L'imagerie cérébrale permet de réaliser des expériences complémentaires, qui nous renseignent sur les boucles de rétroaction entre les aires corticales et le cerveau profond. Plongée au coeur d'une complexité inouïe.

Lepremier mouvement de capture qui apparaît chez l'enfant, bien avant qu'il puisse atteindre avec la main ou parler, est la saccade oculaire . C'est un mouvement fondamental dans l'exploration visuelle. On connaît maintenant les réseaux locaux de neurones qui contrôlent les saccades oculaires et on est aussi sur le point d'élucider les mécanismes par lesquels sont produites des saccades faites vers des cibles mémorisées. C'est donc à la fois un modèle pour l'attention sélective et pour celle de la mémoire spatiale.

La saccade est le changement de direction du regard produit par le système oculomoteur lorsque l'oeil se déplace par un saut brusque. Celui-ci ne dure que 20 à 150 millisecondes et atteint des vitesses de 800 degrés par seconde. C'est le mouvement le plus rapide que nous puissions produire. Chaque saccade est composée d'un mouvement bref, suivi par un ajustement plus lent du déplacement de l'oeil, qui peut lui-même être suivi par une saccade de correction.

Si nous demandons à un sujet de regarder le visage d'une femme, le trajet oculomoteur c'est-à-dire la séquence de saccades réalisé pour explorer ce visage sera complètement différent suivant que l'on demande si cette femme est riche, triste, bien coiffée ou si elle a les oreilles décollées... De même, si nous demandons de regarder un paysage et d'analyser la scène pour voir s'il y a des animaux ou des arbres ou si le ciel est clair, les trajets oculomoteurs seront différents. Explorer un visage ou une scène de l'environnement exige donc des décisions cognitives complexes et l'on comprend que la saccade soit un modèle intéressant pour l'étude de la sélection motrice et des processus de décision.

Sans entrer dans le détail des mécanismes neuronaux qui conduisent à la production des saccades, nous examinerons les principales étapes de la production d'une saccade pour gagner en vue générale ce que nous allons perdre dans le grain fin de notre analyse. Nous examinerons ce système en partant de sa sortie, c'est-à-dire des centres moteurs du tronc cérébral, et en nous déplaçant peu à peu vers le cortex voir photos du cerveau p. 34 . Cette méthode, de bas en haut en quelque sorte, est contraire à la démarche apparemment plus naturelle qui aurait consisté à partir de la rétine et à examiner les étapes successives de l'analyse des images qui conduisent ensuite à une commande motrice. Notre approche est dictée par le but que nous poursuivons. Nous voulons montrer qu'il existe une organisation hiérarchique de l'exécution des saccades qui permet le verrouillage de l'exécution à différents niveaux par des mécanismes inhibiteurs. Nous voulons aussi suggérer que les mêmes structures neuronales sont mises en jeu pendant le mouvement de l'oeil imaginé et le mouvement exécuté. Notre démarche est aussi destinée à soutenir le point de vue que le cerveau ne fonctionne pas seulement comme une machine biologique qui effectue des transformations sensori-motrices par des mécanismes séquentiels : à plusieurs niveaux du traitement, les commandes motrices influencent le traitement des données sensorielles1,2. Le fait de partir de la commande motrice revient donc à prendre l'action comme élément essentiel du fonctionnement neuronal, à regarder comment elle est organisatrice de la perception, et non pas à chercher comment la perception détermine l'action.

La figure 1 montre un diagramme qui résume les opérations neuronales impliquées dans le contrôle des saccades oculaires. Il n'est, bien sûr, pas exhaustif. Il faut le parcourir de manière synthétique puis revenir en arrière sur chacune des étapes. Le but du diagramme n'est pas de montrer le détail des circuits neuronaux qui contribuent à une saccade ou même à un mouvement d'orientation grâce à un mouvement coordonné des yeux et de la tête mais de soutenir l'idée que la décision de faire un mouvement des yeux, accompagné ou non d'un mouvement de la tête, est prise à travers une hiérarchie de mécanismes parallèles excitateurs et inhibiteurs.

Si nous prenons tout d'abord le dernier étage de l'exécution, la saccade oculaire est produite par la décharge de neurones moteurs qui activent les fibres motrices des muscles des yeux, que l'on appelle motoneurones. Ceux-ci déchargent avec une modulation de leur fréquence très particulière constituée d'une bouffée d'activité phasique* très vive suivie d'une décharge tonique* qui permet de maintenir l'oeil dans la nouvelle position. La bouffée d'activité au début de la décharge des motoneurones est principalement destinée à vaincre la viscosité de l'oeil, noyé dans les tissus du globe oculaire, et de permettre que la saccade soit exécutée en quelques dizaines de millisecondes. Les théories et expérimentations faites depuis une dizaine d'années ont révélé que ces de