Microscoop Hors-Série - Octobre 2013
Transcription
Microscoop Hors-Série - Octobre 2013
no e c gl de « m ho a br ix To Poitou-Charentes octobre 2013 Un regard sur les laboratoires en d Centre C Limousin e de ’Ép ha ut Hors-série de d de ve hè os s’é 2013 pe n , s v c Vo ie ir e re o r u , un ilà nt le qu pre le fil un tou s c i v na , to co e q t, hos écu nt ut nd u to n v i reos n n etm e n tl’u es uc est eLeusttourbièrens, réseàrvolirs de ne te io biodiveerssité ’on a de fi ur n t te n t n q t m e n de EN uv ii rrioenursoune manpqauent du cNpeasos din’atéirn! e t. s d fil eda La e c ogi o b i o lm S t ,e B te cy o h p m c ly . riquer ie Le pa n une usine à fab des anticorps s c d’ au L’ ar idé on e d’ du H dé ol te ba Drmossier spécial ch in i MATHématiques (1 sm 72 e 3- fut 17 , 89 sem ) av ble ec -t ce -il, s m esq ot ui s ss ntre ation CNRS Ce zine de la délég le maga > www.dr8.cnrs.fr u-Charentes Limousin Poito α Chaos, une aventure mathé C ha os tu C ,u au é ha T to de os ne m out ur ne ( es ons co des uf c htt av qu t d et mm sy ha p: en co elq isp a e st pit //w A è r é tu r ur fra e ue on té D m es ww i e é i e . m b d n n so l p re s d c lie n gr ’un çais co rte e g rod ens dyn e tr hao m A an la e, ur u ra ui io a ei s l va d rg an s d ne tu t e ns mi ze - m at it n , q m a no e c gl e re hé de « m ho ais pr pré em co ce ues in th. z br ix e, ép se en lla fi , ut o To Poitou-Charentes m octobre 2013 Un regard sur les laboratoires en d Centre C Limousin d r l n t e e ’ b m a d h e e s g) de Ép a ut at Hors-série de e sp ra tat su or l c ’ e o a s h v t h r a e e s i d 2013 iq pe ou gn ion on in tio st ffe ac st e è s ’ s Vo evie nir se , re éco u d r t ue so -ti ole m de ter n a iff p n. un un ilà nt , le qu pre ule t n n , a v u a ne res it is so et ec sé pi Il fil fil un tou s c i v na , to al , d n m l s s . qu Ce ien ’o sy dep Éti sou lon ’ag m co e q t, hos écu nt ut i n r n u e e s nd u to N V I ReOs N N EtM E N Tl’u es je pro e, es ops is nne un et d t d’ ath à rs de ne t uc est ELesuttourbièrnes, réservoi n’ jet po et is. jan G e e un ém te io biodiveressité ’on la d mo ou n rtu dé D v h lic la a ur n t t E N T fin es uv bl ’a ga jà ’a ier ys en th film tiq pa nt d id em de E qN uV iI R O NtosNuneE Mmanque ie ur is , o u 2 e ce éo t ue intérieur t s u ée e cNos pa ait e n tre 01 t J C ri ou c pas e d’airn! e . L de VI e s p nt. e e o t s 3 o s fil Eda a co si rin » de pu t né rou tra et s L rea du t pu nst OGI B I O Lm S t A B, t c yte v n è . e r cie s cl ip in Le lymphoc re oi erl ve du ce ey ive ch bli iune usine à fabrique p m r l an le ct te s. as nc ista e a ale si des anticorps C aos c er e i d x C o o fi d’ e p nc v. s d com . j a t ci o au eu e J. e er ur ise lm ns s e e e fi mle L jo t- et -C la me un sa , a en on st lm ur ell to . L ph nc ba ’id e ns cco ve t e en d’ e ut ’ê il e ro ée fo l’ m rs n hu no s tr os le n is ai p io d’ du i e us e e op pr en de ag n H dé t co d’ né ai me est hie em ol te q re un ue der ut ét d’ ier spécial rm ba Dossier . e H l’o à san rn é ch ch in e a r i p MATHÉMATIQUES n ré s c lle ac pit (1 sm p m d e eu ir ss e li re 72 e t e e nt te 3- fut vo l’a : 17 , ir ve to en 89 sem co ni ut ) av ble m r? ec -t m e ce -il, s m esq ot ui s ssé : e po 1 ur la pr em iè re fo is pa r octobre 2013 Hors-série 2013 le magazine de la délégation CNRS Centre Limousin Poitou-Charentes α > 4 > 6 Agenda thématique Congrés annuel du groupe on sati recherche sur la vectori en Afrique L’Organisation pour l’Ha de son ans 20 les bre du Droit des Affaires célè colloque international, n d’u lors eur dat fon traité en présence de Juriscope. 8 au 17 octobre 2013 < Burkina Faso 2 au eur Rassemblement des act lles confondues autour Grand Ouest toutes tute tive à la santé humaine. rela es des problématiqu - GDR VERRES Journées plénières USTV e, des mondes académiqu Réunion des acteurs problématiques du les sur ue stiq arti et industriel verre. 3 déc. 2013 > Nantes Manifestations www.unilim.fr/spcts pe 38èmes journées du Groumétrie et idi um d’H e on ph Franco Poreux Transferts en Milieux tériaux. itiers 18 au 21 nov. 2013 > Po r mp.labo.univ-poitiers.f http://ic2 6ème RIPT ales Projection Rencontres internation Thermique 13 déc. 2013 > Limoges www.unilim.fr/ript CFA 2014 12ème Congrès Français erm.fr www.rencontres-go-ins oges, 14 au 15 nov. 2013 > Lim amique Cér la de n pée ro Centre Eu aux géoma 4 déc. 2013 > Orléans recherche 2èmes Rencontres de la d Ouest an Gr en santé dans le s de la recherche du www.juriscope.org des sols Les matériaux argileux, de www.gtrv.fr Ouagadougou Les fondamentales, aux nouvelles frontières ié Le forum du CNRS déd conférences, débats). de la science (échanges, ris, 14 et 16 nov. 2013 > Pae sur inscription libr rée ent , ne on rb la So entales www.cnrs.fr/lesfondam 23èmes rencontres s» « Sciences et Citoyen exion, d’échange réfl Rendez-vous annuel de nes et chercheurs. et de dialogue entre jeu itiers 18 au 21 nov. 2013 > Po citoyens www.cnrs.fr/scienceset d’Acoustique itiers 22 au 25 avril 2014 > Po nce.univ-poitiers.fr http://cfa2014.confere CNRS Centre Limousin Poitou-Charentes 3E, Avenue de la Recherche Scientifique 45071 ORLÉANS CEDEX 2 Tél. : 02 38 25 52 01 - Fax : 02 38 69 70 31 www.dr8.cnrs.fr E-mail : [email protected] ISSN 1247-844X Directeur de la publication Patrice Soullie Responsable de la publication Patricia Madrières Secrétaire de la publication Florence Royer Création graphique Linda Jeuffrault > 10 Les tourbières, réservoirs de biodiversité > 4 Nos intérieurs ne manquent pas d’air > 6 Tension ! Explosion ? > 8 Mission en Antarctique > 10 Gtrv 2013 L’OHADA à 20 ans rmonisation Environnement www.dr8.cnrs.fr Colloques > 26 Aurélien Alvarez > 3 0 > 34 > 11 au > 12 > 8 Mathématiques Quand les volcans coincent la bulle > 12 éviter que les petits ruisseaux ne deviennent de grandes rivières > 13 Statistiques et énergies renouvelables > 14 Le climat et ses aléas > 15 L’imagerie mathématique au secours des monuments dégradés > 16 Penser global, agir local... > 17 De l’équation à la guérison > 21 Biologie Le lymphocyte B, une usine à fabriquer des anticorps > 24 Un moteur « six cylindres » sous le capot d’un bolide microbien > 26 Chimie L’informatique moléculaire, dans la course aux nouvelles molécules thérapeutiques > 28 Histoire La santé des femmes à la Renaissance > 30 Aux origines du Pacifisme ? Contester la croisade au Moyen Âge > 32 Les perles en verre, de grandes voyageuses de petite taille > 34 Ont participé à ce numéro : Martin Aurell, Nicolas Azzopardi, Guy Barles, Nils Berglund, Maïtine Bergougnioux, Pascal Bonnet, Marc Boudvillain, Jérôme Casas, Gilles Chalumeau, Stéphane Chevrier, Véronique Daële, Mouna El Mekki, Richard Emilion, Bernard Gratuze, Philippe Grillot, Frédéric Lagarde, James Lankton, Anne Laurent, Olivier Lourdais, Carine Lucas, Sten Madec, Simona Mancini, Marie-Laure Masquillier, Anne Mychak, Elisabeth Nau, Gilles Paintaud, Concetta Pennuto, Constantin Pion, Claire Ramboz, Laurent Robin, Pauline rouaud, Alexis Saintamand, Frédéric Savoie, Christelle Suppo, David Ternant. Imprimeur - PREVOST OFFSET - Impression sur papier 100 % recyclé Cycloprint. Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 Chaos> (http://www.chaos-math.org) est un film 28 32 tué de neuf chapitres de treize>minutes chacun. Il s’ag autour des systèmes dynamiques, de l’effet papillon et > 24 Tout comme Dimensions, ce film est diffusé sous une mons et a été produit en collaboration avec Étienne Gh Vive les mathématiques ! est disponible gratuitement sur internet depuis janvier ou vivre les mathématiques ! quelque sorte une présentation de son synopsis. D’autr Elles sont partout, elles nous côtoient et pourtant nous Comme chaque année, le mois d’octobre est marqué core en cours préparation mais, et déjà, on t la Fête de la Science. Il s’agit d’un moment d’ores privilén’y prêtons guère attention. Elles nous simplifient la parde vie alors que dans notre prime jeunesse, elles nous ont gié, où personnels des laboratoires et grand public se française, anglaise, espagnole, italienne, parfois mené la vie dure. Heureusement, certains les rencontrent et échangent sur la Science et les travaux portugaise et né aiment, les défendent, illustrent leur utilité et surtout qui constituent l’actualité de la recherche. Ces jourd’un large choix de sous-titres. Ce projet n’aurait pu voi nées sont devenues un rendez-vous incontournable nous apprennent à les comprendre et les apprécier. ses acteurs et ses visiteurs.que je n’oublie pas de reme grand nombrepourde personnes Les mathématiques sous leurs multiples formes sont inextricablement liées à l’histoire des civilisations, elles régissent notre présent et le futur ne peut se conquérir sans elles. Je tiens à remercier l’ensemble des personnels des laboratoires de notre circonscription Centre Limousin Poitou-Charentes pour leur investissement dans l’organisation de cet évènement et ne doute pas que cette 22è édition, grâce à leur contribution, rencontrera le même succès auprès du public que lors des éditions e précédentes. « Tout s’écoule, tout est mouvement. » Ainsi comm C’est donc tout naturellementde que ce numéro hors- reprenant l’une des idées principales de la ph Chaos, série de Microscoop consacre son dossier spécial d’Éphèse aux Mathématiques et s’associe ainsi à l’année 2013qui vécut à la fin du VI siècle av. J.-C. L’ê « Mathématiques de la planète Terre », opération parSOULLIE devenir, les choses n’ont pas dePatrice consistance et tout se rainée par l’UNESCO. Délégué régional devient tout, tout est tout. La Science peut-elle nous a Voilà une question qui ne date pas d’aujourd’hui et qu un fil conducteur de ce film. d o ss i e r > 1 2 - 2 1 Spécial MATHéMATIQUES Environnement Environnement Les tourbières, réservoirs de biodiversité Une grande valeur patrimoniale De façon inattendue, des sites de faible superficie ou présentant des états de dégradation avancés sont cependant favorables à des espèces rares. La définition de la valeur patrimoniale de ces sites sur la base d’espèces végétales ou animales mieux connues aurait pourtant conduit à leur éviction de la liste de sites régionaux présentant un intérêt conservatoire. L’intégration d’une plus grande diversité de taxons dans la définition de la valeur patrimoniale des sites paraît donc nécessaire pour éviter des erreurs d’évaluation lourdes de conséquences. Avec 256 espèces d’araignées et 101 espèces de carabes recensées, les tourbières constituent de véritables réservoirs de biodiversité. Ainsi, de nombreuses espèces considérées comme rares sur le plan national, sont parfois abondantes dans les sites étudiés et certaines sont spécifiquement associées Des facteurs locaux (surface et qualité de la tourbière) mais aussi régionaux (structure du paysage, morcèlement des habitats, barrières forestières autour des sites) conditionnent la qualité des «...de véritables reliques glaciaires.» Entretenir et restaurer les sites La qualité des milieux tourbeux est un des facteurs déterminant des communautés qu’ils hébergent. Cette qualité des sites est en étroite relation avec la dynamique naturelle de la végétation et avec les activités humaines. La restauration par pâturage permet de réactiver de façon remarquable ces espaces instables. Il s’avère également que la structure du paysage est importante et que les plantations forestières peuvent constituer des barrières pour certaines espèces. Enfin, ces travaux suggèrent que la gestion des milieux patrimoniaux doit intégrer, non seulement la restauration des groupements végétaux qui les définissent, mais aussi la structure de la végétation pour offrir une Olivier LOURDAIS < CEBC [email protected] Frédéric Lagarde < Le champ des possibles [email protected] http://www.cebc.cnrs.fr * Ce travail a été soutenu financièrement par le “Programme opérationnel plurirégional Loire FEDER” (# PRESAGE 30810), l’établissement Public Loire & le Parc Naturel Régional de Millevaches en Limousin. Piloté par le CEBC et l’Association Le champ des Possibles, ce programme a été mené en collaboration avec le laboratoire Environnement, Ville, Sociétés (UMR 5600) et le Parc Naturel Régional de Millevaches en Limousin. Un inventaire détaillé a été remis aux gestionnaires régionaux. Il présente l’écologie et les statuts des principales espèces inventoriées ainsi qu’un diagnostic de la qualité de chacun des sites étudiés. Les chercheurs ont proposé que plusieurs espèces soient intégrées dans une liste rouge régionale des espèces menacées et entrent dans la Stratégie de Création des Aires Protégées du Limousin. Elles ont toutes été retenues pour la liste rouge régionale qui nourrit elle-même la liste rouge au niveau national. Plus de 23000 araignées et 10000 carabes ont été capturés et identifiés au niveau spécifique afin de caractériser les communautés des tourbières limousines et de comprendre les relations entre les conditions de l’environnement à différentes échelles spatiales et la structure des communautés. Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 diversité de microhabitats et microclimats. Le maintien ou l’augmentation de l’hétérogénéité structurale de la végétation dans les sites gérés devrait être bénéfique à une large gamme d’espèces et aussi offrir des zones « tampons » face aux aléas climatiques. Cela nécessite une diversification des modes de gestions appliqués à la restauration des landes et tourbières. 5 LO UR DAI S 4 Dans le cadre du Plan Loire Grandeur Nature*, le CEBC avec ses partenaires, ont étudié les reptiles et arthropodes des landes et tourbières situées en tête de bassin. L’objectif principal du projet était de décrire et comprendre la structure des communautés et de replacer les résultats obtenus dans le contexte de la gestion et de la restauration des milieux. Le programme s’est articulé autour de 3 axes : - Réaliser un inventaire quantitatif et spatialisé des communautés d’araignées et de carabes dans les sites tourbeux du Limousin aux tourbières et zones humides. Les tourbières du Limousin apparaissent comme des refuges stratégiques pour un cortège d’espèces rares, dont certaines peuvent être considérées comme de véritables reliques glaciaires. iv i er Le recensement de 350 espèces (Plateau de Millevaches) - Déterminer l’influence des caractéristiques de l’environnement sur la structure de ces communautés, et cela à différentes échelles spatiales - Déduire des recommandations et des pistes de gestion et de conservation des sites tourbeux en Limousin Les araignées et carabes de 30 sites tourbeux (zone d’étude de 30 km sur 45 km) ont fait l’objet d’analyses selon trois échelles spatiales imbriquées: le point de capture, le site, le paysage environnant. Des sessions d’échantillonnages spécifiques ont permis de mieux cerner les exigences écologiques des quelques 350 espèces. Ol Les landes et les tourbières sont des milieux en forte régression à l’échelle Européenne et de nombreuses actions de gestions et de restauration sont entreprises. Cependant, elles prennent rarement en considération les ectothermes (vertébrés et invertébrés) que ce soit pour les phases de diagnostics écologiques ou pour le suivi de l’impact des modes de gestion sur ces milieux. Pourtant, ces organismes présentent une grande sensibilité aux conditions climatiques et à la structure de l’habitat et de faibles possibilités de déplacement. Les invertébrés constituent la plus grande partie de la biodiversité et peuvent apporter des informations essentielles sur l’état de ces milieux. La gestion de ces milieux naturels remarquables doit passer à la fois par la restauration des sites (pâturage notamment) et par le contrôle de l’occupation de l’espace à l’échelle du paysage alentour. La restauration des relations écologiques et fonctionnelles entre les différents sites tourbeux semble essentielle pour la dynamique des communautés qu’ils hébergent. A l’heure actuelle, les mesures de gestions et de conservation de ces habitats visent principalement la réhabilitation des sites et prennent peu en compte la gestion des paysages. Les résultats obtenus montrent la nécessité de développer une approche « globale » intégrant la politique d’occupation de l’espace de la région étudiée. En particulier, une matrice forestière dense et continue (plantations de résineux) autour de certains sites pose un problème pour les espèces spécialistes. BC Le haut bassin de la Loire présente une forte spécificité écologique avec une grande diversité de landes et de tourbières. La réduction drastique de leur surface et leur forte fragmentation constituent une menace pour la biodiversité de ces milieux. De telles contraintes affectent les échanges populationnels et augmentent les risques d’extinctions locales en empêchant la libre migration et la colonisation des sites vacants. < CE Dolomedes fimbriatus, une pisauridae caractéristique des zones humides. communautés d’arthropodes et la persistance d’espèces reliques. Ainsi, plus une tourbière est « active » et plus la proportion d’espèces spécialistes est importante. La composition des communautés est aussi dépendante du paysage et de la surface forestière en périphérie des sites étudiés. Plus les tourbières sont morcelées et plongées dans une matrice forestière (plantations de résineux essentiellement), moins les communautés d’arthropodes sont riches en espèces spécialistes. © © Olivier LOURDAIS < CEBC Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 Environnement Environnement © Ministère de l’écologie, du développement durable et de l’énergie. IC AR EC NR S © Véronique DAËLE < ICARE CNRS Nos intérieurs ne manquent pas d’air ! L’union européenne a fait de 2013 l’année de l’air. La pollution atmosphérique est en effet un problème d’environnement majeur impactant directement notre qualité de vie. C’est particulièrement le cas avec la qualité de l’air intérieur. Des études menées ces dernières années, ont montré que dans des bâtiments confinés, les concentrations des polluants primaires pouvaient être largement supérieures à celles enregistrées à l’extérieur. Cette problématique prend encore plus d’importance en considérant le rapport espace-temps puisque nous passons 80 à 90 % de notre temps dans des environnements clos (logements, lieux de travail, écoles, commerces, etc). La qualité de l’air intérieur s’impose ainsi comme une préoccupation sanitaire majeure pour les populations et pour les pouvoirs publics. Des origines et des conséquences multiples 6 Les sources de pollution intérieure sont très diverses, en nature et en intensité : les matériaux de construction, les peintures, les colles, les moquettes, les isolants, l’ameublement, les produits ménagers, les désodorisants (bougies parfumées, encens, parfums d’intérieur), les cosmétiques, les appareils à combustion (chaudières, chauffe-eau), les biocontaminants (acariens, animaux domestiques, moisissures, …). La présence et l’émission de ces polluants sont aussi fortement influencées par le mode de vie des occupants (ex. tabagisme), la température et l’humidité ambiantes ainsi que par le taux de renouvellement d’air (VMC, ouverture des fenêtres, …). Les effets sur la santé sont variables selon les individus, la durée d’exposition, la concentration et le type de polluant. Ils vont du simple inconfort ou gêne olfactive, aux irritations (respiratoires, de la peau, des yeux, du système digestif), aux maux de têtes, aux allergies et asthmes, jusqu’au cancer pour des expositions élevées (souvent professionnelles). Une règlementation en cours Quels sont ces polluants d’origine chimiques que nous rencontrons dans l’air intérieur ? On les appelle les composés organiques volatils (COV). Comme leur nom l’indique, ils sont volatils et se propagent donc ainsi aisément en contaminant l’air des espaces clos. Certains d’entre eux sont d’ores et déjà réglementés comme le formaldéhyde et le benzène. « Des solutions simples peuvent être adoptées...» Dans ce contexte, la France a mis en place différents moyens : - la création en 2001 de l’Observatoire de la Qualité de l’Air Intérieur (OQAI), - l’établissement de Valeurs Guides de qualité d’Air Intérieur (VGAI) par l’ANSES (Agence nationale de la sécurité sanitaire Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 de l’alimentation de l’environnement et du travail) basées sur des critères sanitaires, -la mise en œuvre d’actions dans le Plan National Santé Environnement (PNSE I et II) et de lois dans les Grenelle l’environnement. Dans le 2ème PNSE (2009-2013), une des mesures phares vise à « mettre en place un étiquetage sanitaire des produits de construction, de décoration ainsi que des produits les plus émetteurs de substances dans l’air intérieur des bâtiments, et rendre obligatoire l’utilisation des produits et matériaux les moins émissifs dans les écoles et crèches ». De même, conformément à la loi Grenelle 2, la surveillance de la qualité de l’air dans les Etablissements Recevant du Public (ERP), tels que les établissements scolaires, va être progressivement rendue obligatoire de 2015 à 2023. Des solutions simples peuvent être adoptées en réduisant au maximum la pollution à la source en faisant le choix de produits à faibles émissions et en ayant une bonne stratégie d’aération (en fonction du bâtiment et de l’environnement extérieur). De nombreuses questions restent aujourd’hui encore posées dans un contexte de grandes diversités de polluants et de sources, de multiples espaces clos et en tenant compte © sation de ces sources secondaires de HCHO dont la quantification est donc un élément important à prendre en considération pour la réglementation concernant sa réduction. de l’évolution des techniques de construction visant une meilleure performance énergétique des bâtiments (cf. constructions BBC, Bâtiment Basse Consommation). Le projet Formul’air Le formaldéhyde (HCHO) est l’un des polluants les plus importants et significatifs « des atmosphères » intérieures. Les taux d’exposition en milieu domestique, même s’ils sont plus faibles qu’en milieu professionnel, ont un effet sur la santé respiratoire, comme de nombreux polluants. Le formaldéhyde est classé depuis 2004 comme produit cancérogène pour l’homme. Le Haut Conseil de la Santé Publique a introduit une valeur cible (10 µg/m3) à atteindre en 2023 (30 µg/m3 en 2015) dans les ERP. Il est émis directement par des surfaces, source primaire, ou produit lors de la dégradation chimique d’autres composés organiques volatils présents dans le milieu (solvants, produits de nettoyage, également les surfaces), source secondaire. Cette deuxième source pourrait être dominante dans certaines situations où les concentrations en COV insaturés sont non négligeables comme l’indique les études des processus chimiques dans les conditions atmosphériques. Or, à ce jour, il n’existe que très peu de données sur la caractéri- En effet, la réglementation imposant une baisse importante de la concentration en formaldéhyde, ce dernier commence à être supprimé des processus de fabrication (source primaire). Mais, on peut se demander comment on pourra respecter la valeur cible réglementaire de 10 µg/m3 si elle est déjà atteinte à partir des sources secondaires. C’est l’objectif de Formul’air (FORmaldéhyde et siMUlations dans l’AIR : détermination des sources secondaires de formaldéhyde), le programme de recherche financé par la Région Centre et piloté à l’Institut de Combustion Aérothermique Réactivité et Environnement (ICARE – UPR 3021), en partenariat avec Lig’Air (réseau de surveillance de la qualité de l’air en Région Centre). scolaires de la Région Centre : une école élémentaire, un lycée et des bâtiments universitaires. Les résultats pourront être directement intégrés dans les différents plans et programmes nationaux et régionaux (PNSE, PRSE, …) afin de suggérer et mettre en place les mesures coercitives pour réduire les niveaux de formaldéhyde en air intérieur et satisfaire ainsi la valeur cible à l’horizon de 2023. L’identification des processus et déterminants qui conditionnent la formation secondaire de HCHO en air intérieur, peut être également valorisée auprès des industriels dans le but de réduire, voire d’éliminer, les COVs responsables de cette formation, dans leurs procédés de fabrication. Véronique DAËLE < ICARE [email protected] http://www.icare.cnrs-orleans.fr Il permettra de caractériser les sources secondaires du formaldéhyde de l’air intérieur en combinant, des mesures de terrain, des expériences en laboratoire (à l’aide de la grande chambre atmosphérique HELIOS) et de la modélisation. Les lieux ciblés pour les études de terrain sont des salles de classe ou de cours dans des établissements 7 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 Environnement Environnement © Laurent PERDEREAU < ISTO Nucléation de vapeur au sein d’eau liquide métastable piégée dans un cristal de quartz. Images prises sur enregistrements video numériques. 4 secondes séparent la 1ère image et la 7ème. expliquent pourquoi 1000 m3 d’eau liquide métastable peuvent libérer en une milliseconde autant d’énergie qu’un séisme de magnitude 5. Une théorie pour prédire l’explosivité © Thinkstock® Tension ! explosion ? Au XXIè siècle, les fondements scientifiques qui se cachent derrière le comportement de l’eau restent mal compris, voire ignorés non seulement du grand public mais aussi d’une partie de la communauté scientifique qui la manipule quotidiennement. L’eau est une substance des plus banales et constitue en même temps un matériau des plus extraordinaires. C’est la seconde molécule la plus abondante dans l’Univers, un composé essentiel des étoiles à l’état solide. A l’état liquide, elle demeure indispensable au développement des espèces vivantes et sa présence est le critère premier qui oriente les recherches de vie extraterrestre. Au XXIè siècle, les fondements scientifiques qui se cachent derrière le comportement de l’eau restent mal compris, voire ignorés non seulement du grand public mais aussi d’une partie de la communauté scientifique qui la manipule quotidiennement. 8 Les recherches sur la physique de l’eau offrent de surprenants contrastes. D’un côté, une association internationale met à disposition des scientifiques et des ingénieurs sur calculateur de poche les propriétés de l’eau dans tous ses états jusqu’à 1000°C et 10 000 bar. De l’autre, il persiste des domaines de recherche sur l’eau très spécialisés dans lesquels un petit nombre de chercheurs échangent et s’affrontent au niveau mondial : tel est le domaine confidentiel de la physique de l’eau liquide métastable. Une frontière de la Science depuis… 1662 ! C’est Huygens qui communiqua en 1662 à la Royal Society de Londres la première observation référencée d’eau sous tension. Il avait obtenu des colonnes suspendues de mercure ou d’eau dans des tubes en verre, ce qui impliquait que ces liquides existent à pression négative. Cependant, cette expérience ne put être interprétée à l’époque car le baromètre venait à peine d’être inventé 20 ans plus tôt et le concept de tension de vapeur ne l’était pas encore. Ce n’est qu’en 1850 que Berthelot mesura une pression de -50 bar dans de l’eau en tubes scellés chauffée jusqu’à 28°C puis refroidie. Dans ces mêmes années, les minéralogistes découvraient de leur côté, grâce au microscope, que les minéraux des roches piègent de nombreux fluides en micro-inclusions (essentiellement de l’eau mais aussi du gaz carbonique sous pression…). Quand Brewer invente vers 1850 un prototype de platine pour chauffer à volume constant l’eau piégée dans les lacunes intracristallines, il ignore qu’elles sont des analogues de taille inframillimétrique des tubes de Berthelot et qu’en conséquence, elles sont des objets privilégiés pour observer facilement et de façon répétitive, l’eau tensile. Il faudra Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 attendre Zheng (1991) pour que des pressions de – 1400 bar soient mesurées sur des inclusions d’eau pure. Celles-ci détiennent encore à ce jour le record des pressions négatives mesurées sur l’eau liquide en laboratoire (-1800 bar). Comprendre pour maîtriser A l’ère industrielle, l’homme n’a cessé de diversifier ses activités techniques, d’explorer de nouveaux espaces de la planète. Il découvre alors que l’eau tensile est partout, y compris dans le milieu naturel. Elle provoque des explosions lors du laminage des aciers, elle détruit les hélices de bateaux, elle est responsable des accidents de décompression lors des plongées. Comprendre l’eau métastable est un défi aux multiples enjeux, technologiques et biologiques. L’eau tensile explosive particulièrement Tout liquide métastable a une durée de vie limitée. La nucléation de vapeur dans ce liquide est inéluctable et sera d’autant plus explosive qu’elle libèrera une énergie plus grande en un temps plus court. Or, l’eau liquide a une énergie de vaporisation élevée et, on l’a vu, la capacité de résister à des tractions extrêmes. Ces propriétés A partir des années 1920, la Théorie Cinétique de la Nucleation (CNT) a été élaborée pour prédire de façon quantitative la nucléation homogène de vapeur au sein des liquides métastables. Cette théorie a été validée expérimentalement pour de nombreux liquides, mais elle n’avait pu être vérifiée pour l’eau tensile au-delà de -300 bar, faute de données expérimentales adéquates. « ...savoir anticiper le comportement de l’eau saturée en gaz... » Utilisant des microvolumes d’eau liquide piégée dans du quartz, des géologues de l’Institut des Sciences de la Terre d’Orléans (ISTO – UMR 7327 CNRS/Université d’Orléans, BRGM), un statisticien du Groupement de Recherche Eau, Sol, Environnement (GRESE – EA 4330, Université de Limoges) et des physiciens spécialistes de l’eau tensile du Laboratoire de la Matière Condensée et Nanostructures (LPMCN aujourd’hui Institut Lumière Matière – UMR 5306 UCB Lyon 1 / CNRS) ont collaboré pour explorer le domaine de l’eau tensile entre -175 et -1400 bar. En interprétant leurs mesures de durée de vie de l’eau métastable avec la CNT, ils ont montré que la nucléation de vapeur dans de l’eau tensile est un processus homogène : elle s’effectue au sein du liquide par sa désintégration à l’échelle d’une centaine de molécules et non à cause de l’effet des parois ou de la présence d’impuretés. Environ 1013 de ces nanogermes d’eau vapeur se forment par m3 et par seconde au sein du liquide métastable lors de la rupture. Le fait que l’eau tensile en micro-inclusions se fracture pour un taux de nucléation constant, implique que le comportement de l’eau liquide dans des pores de volume compris entre 0,1 et 0,001mm3 est quasi spinodal dans le vaste domaine PT métastable exploré. En perspective, le stockage de CO2 Limiter les émissions atmosphériques de CO2, principal gaz à effet de serre, est une nécessité si l’on veut freiner le réchauffement de la planète. Le stockage géologique est un des moyens envisagés pour atteindre cet objectif. Les aquifères souterrains sont identifiés comme les sites les plus fiables où piéger ce gaz industriel. En préalable au stockage, il convient cependant de savoir anticiper le comportement de l’eau saturée en gaz si des changements, même transitoires, se produisent dans les paramètres physiques du réservoir profond. Un minéral contenant de multiples lacunes de taille micronique remplies d’eau constitue un bon analogue pour étudier le comportement de l’eau stockée dans les réservoirs rocheux. En améliorant la compréhension du comportement métastable de l’eau piégée, en permettant de modéliser quantitativement ce comportement, les chercheurs d’Orléans, de Limoges et de Lyon ont franchi une étape majeure vers la sécurisation des sites de stockage, en améliorant les critères de choix de ces sites. Il reste maintenant à étendre la méthodologie qu’ils ont développée à l’étude de l’eau saturée en gaz. En effet, les gaz dissouts dans l’eau sont appelés à jouer un rôle croissant dans les sociétés post-industrielles de ce début de XXIè siècle, que ce soit dans l’environnement comme on l’a vu ou dans le domaine de l’énergie, avec la montée en puissance de l’hydrogène. Le comportement métastable des solutions n’a pas fini de préoccuper les scientifiques ! Claire Ramboz < iSTO [email protected] Mouna El Mekki < Institut lumière matière [email protected] www.isto.cnrs-orleans.fr 9 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 Environnement Environnement Quelques valeurs de Concordia © Gilles CHALUMEAU < LPC2E Latitude: 75°06’01’’ Sud Longitude: 123°19’27’’ Est Altitude: 3233m Décalage horaire: Tu+8 heures Distance à la côte: 1150 km Distance au pôle: 1650 km Pression: 630 hPa, comme dans les Alpes à 3800 mètres Température: de -25°C à -40°C en été de -50°C à -84°C en hiver Vapeur d’eau: 1000 à 2000 fois moins qu’en Europe Personnel : jusqu’à 80 personnes en campagne d’été et une petite quinzaine durant l’hivernage. Mission en Antarctique Trois mécaniciens du Laboratoire de Physique et de Chimie de l’Environnement et de l’Espace (LPC2E CNRS/ Université d’Orléans) sont partis trois mois au bout du monde. Leur mission : installer les antennes du radar ionosphérique SuperDARN. Avant l’Antarctique et la Base Concordia, il y a eu… Orléans. Entre octobre 2005 et mars 2010, le prototype d’antennes radar a été développé sur le campus CNRS dans des conditions climatiques et environnementales que l’on qualifiera de « normales ». Cette phase de conception et de test avait pour objectif de valider le modèle de montage, d’installation et d’érection des antennes avec le matériel disponible à Concordia. Les équipes techniques et scientifiques de l’époque s’étaient fixé quelques contraintes : minimiser le nombre de pièces à assembler, optimiser et tester les procédures de montage (manipulation avec gants), minimiser les efforts physiques compte tenu des conditions extrêmes, choisir des matériaux résistants à cet environnement et enfin transporter l’ensemble en containers. Tout matériel lourd destiné à Concordia transite par bateau, l’Astrolabe, depuis le port de Hobart en Tasmanie jusqu’à la station française Dumont D’Urville (DDU) en Terre Adélie. 5 à 6 jours au minimum suffisent, lorsque la météo est clémente et uniquement d’octobre à janvier. Ensuite le matériel est acheminé par le « Raid », un convoi de tracteurs à chenilles, jusqu’au Dôme C. Dans les meilleures conditions possibles, une dizaine de jours sont nécessaires. 2E Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 antennes soit un chemin de câbles d’environ 600 mètres parcourant les deux réseaux et faisant la liaison entre eux. A raison d’un pieux en bois tous les 3 mètres, ce 200 pieux qui ont été fiché dans « le sol ». « ...2 jours de canicule sans vent à -18°C... » Au tout début de la campagne, fin novembre, la température était plus souvent aux alentours de -45°C/ -50°C avec un vent de quelques mètres par seconde. La température ressentie avoisinait les -60°C. Combiné avec la faible pression, tout effort physique devait être mesuré et réfléchi pour éviter l’essoufflement, la perte de force musculaire. Heureusement, mi-décembre 2 jours de canicule sans vent à -18°C ont réjoui « les habitants » de la base. A ces conditions exceptionnelles, un autre phénomène est déroutant pour ceux habitués aux Convection ionosphérique LPC …pour une super mission Du 15 novembre 2012 au 7 février 2013, six personnes se sont démenées pour le La première chose que l’on ressent en arrivant à Concordia, c’est un essoufflement. U< MEA Mais le délai d’acheminement total est beaucoup plus long, de l’ordre de 12 à 18 mois. En effet la base de DDU est installée sur l’île des Pétrels, à 5 km du continent. Elle est accessible par bateau uniquement durant l’été austral, à la fonte des glaces. Il faut attendre l’hiver, que la banquise se soit reformée, pour transborder le matériel de l’île sur le continent avec des traineaux. Là, il faut patienter de nouveau jusqu’à l’été austral suivant pour charger le Raid et atteindre la base de Concordia. Toute cette logistique tant pour le matériel que le personnel est assurée par l’Institut Paul Emile Victor, institut pour la recherche en territoires polaires. montage et le démarrage de ce radar : trois mécaniciens français du LPC2E et trois électroniciens et informaticiens italiens du PNRA (Programma Nazionale Ricerche in Antartide), leurs homologues du CNRS et IPEV en Italie. Tout le trajet s’est fait en avion depuis Paris, via Honk-Kong, Christchurh, base Mario Zuchelli et Concordia. Le voyage aller n’aura duré finalement que 4 jours dont 2 jours d’arrêt obligatoire à Christchurh. © Gilles CHALU 10 Le radar, c’est tout d’abord un réseau principal de 16 antennes émettrices, puis un réseau interférométrique de 4 antennes et enfin un container abritant l’électronique et l’informatique du système. En grandeur : les antennes mesurent chacune 17,40 m. Elles sont espacées les unes des autres de 15,50 m. Le réseau principal s’étend sur une longueur de 300 m et 70 m pour le réseau interférométrique, distant du principal de 90 m. L’ensemble a donc une emprise au sol d’environ 3 hectares. Une super logistique... Le passage de la pression atmosphérique du niveau de la mer à celle de la haute montagne en moins de 4 heures est éprouvant. La seconde, c’est d’être seuls et isolés dans un désert immense, blanc, dépourvu de toute vie végétale et animale : Concordia est sur une calotte de glace de plus de 3 km d’épaisseur et à plus de 1000 km des côtes. Mais l’acclimatation se fait rapidement. Les travaux d’installation doivent être lancés. Après vérification de l’état du matériel arrivé 4 ans auparavant, l’ensemble du radar est assemblé et monté. Le travail s’est réalisé dans ces conditions extrêmes et éprou© Gilles CHALUMEAU < LPC2E vantes, 8 à 10 heures par jour en extérieur avec les mêmes risques physiques qu’au sommet du Mont Blanc. 24 antennes ont été posées avec 6 haubans pour chacune. Au total, 56 poteaux métalliques de 2 mètres ont été enfoncés d’1.80 m dans la glace pour maintenir ces haubans. A cet ensemble s’est ajouté le système d’alimentation des Outre son rayonnement électromagnétique dont une partie est responsable de l’ionisation de la haute atmosphère terrestre appelée l’ionosphère, le Soleil émet également en permanence un flux particulaire constitué essentiellement d’électrons et de protons, appelé plasma du vent solaire. Ce dernier entraîne avec lui les lignes de champ magnétique du Soleil dans l’espace interplanétaire. En amont de la Terre, le vent solaire est ralenti au travers d’un choc et dévié tout autour de l’obstacle créé par le champ magnétique terrestre, appelée la magnétosphère. Cette interaction complexe permet un transfert de mouvement depuis le vent solaire vers l’environnement ionisé terrestre, engendrant un transport perpendiculaire au champ magnétique du plasma dans les régions polaires de la magnétosphère et de l’ionosphère. SuperDARN est un réseau international de radars trans-horizon qui fournit des observations continues de la convection du plasma ionosphérique grâce à sa couverture globale des régions de haute latitude Nord et Sud. La variabilité de cette convection permet de suivre le degré d’interaction de l’environnement terrestre avec le vent solaire. Aurélie MARCHAUDON, responsable du projet SuperDARN en France moyennes latitudes, c’est la présence du soleil 24 heures sur 24… Mais malgré toutes ces contraintes environnementales et leur impact sur les organismes humains, la mission a été remplie. L’objectif a été atteint : le radar SuperDARN a été assemblé, complètement monté et opérationnel dans les délais impartis à l’équipe technique franco-italienne. La performance doit cependant beaucoup au travail préparatoire réalisé en amont et aux moyens logistiques de l’IPEV. A partir de la fin du mois de janvier, les conditions météo se sont rapidement dégradées rendant les moyens de transports plus aléatoires. L’avion de retour a ramené les mécaniciens du LPC2E vers leurs terres orléanaises plus hospitalières, via un petit détour par la base australienne de Casey puis l’Australie. Gilles CHALUMEAU < LPC2E [email protected] Stéphane CHEVRIER < LPC2E [email protected] Frédéric SAVOIE < LPC2E [email protected] http://lpce.cnrs-orleans.fr [email protected] 11 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 α Mathématiques al ci é p s r e i s s o D Mathématiques Quand les volcans coincent la bulle… La compréhension d e s mécanismes éruptifs est à la base de la prévention des risques liés aux volcans ainsi que de l’étude de la construction de la croûte terrestre. Les éruptions volcaniques sont classées en deux catégories: les effusives et les éruptives. Les premières se caractérisent par l’émission séparée de magma et de gaz, le magma formant un dôme ou une coulée de lave, le gaz étant doucement dispersé dans l’atmosphère. Les secondes, au contraire, se distinguent par la fragmentation du magma et la propulsion brutale dans l’atmosphère de gaz pressurisés et de morceaux de lave. La plupart des volcans produisent des éruptions du même type. Toutefois, il y a des exemples (comme la Soufrière de Montserrat, Caraïbes) où les deux types d’éruption se manifestent. Ce phénomène ne peut donc pas seulement s’expliquer par la chimie du magma contenu dans le volcan. D’autres facteurs doivent entrer en jeu. La communauté de géophysique estime que la classe d’une éruption est liée à la façon Les mathématiques s’avèrent être bien souvent un moyen d’investigation dans des domaines ou des lieux inaccessibles à l’homme et aux machines. Leur contribution à la recherche de solutions à des problèmes mondiaux comme les catastrophes naturelles, les changements climatiques, le développement durable ou la santé, est primordiale. Des laboratoires de la circonscription, par les travaux interdisciplinaires auxquels ils participent, apportent un grand nombre d’éléments de réponse. dont les bulles des gaz, contenues dans le magma et nucléés en profondeur, grossissent et coalescent* pendant la remontée du conduit. Il est supposé que si cette coalescence des bulles permet de construire un chemin vers la surface à travers lequel le gaz peut s’échapper, l’éruption serait du type effusif ; alors que si ce chemin ne se forme pas, le magma dans le conduit arrive en surface sursaturé par le gaz resté emprisonné et une éruption explosive en suit. La chimie du magma, la présence de bulles de gaz en son sein et la façon dont ces bulles se comportent jouent un rôle déterminant dans le type d’éruption. Modélisation mathématique Ces dernières années, des géophysiciens et des mathématiciens ont uni leurs connaissances pour écrire un modèle mathématique qui puisse décrire la croissance des bulles par décompression, diffusion et coalescence. La complexité du processus physique les a amenés tout d’abord à étudier la seule croissance par décompression et diffusion en partant du modèle de référence dans la communauté géophysique qui date des années 80 et qui a été repris ces dernières années. Il décrit, par un système d’équations non- linéaires, la croissance d’une seule bulle représentative en considérant que toutes les bulles évoluent de la même façon. Une analyse mathématique et numérique du modèle a permis sa simplification et la définition de taux de croissance en volume et masse de la bulle. Ceci a ensuite porté à la description statistique/cinétique de l’évolution d’un ensemble de bulles grossissant par décom- (*) les poches de gaz se forment à partir de petites bulles de gaz, comme la pluie se forme par coalescence à partir de gouttelettes. pression, diffusion et coalescence par une équation aux dérivées partielles dont l’inconnue est la fonction distribution des bulles définie sur des variables non standard (la masse et le volume). La prise en compte de la coalescence a demandé plus de réflexion avec tout d’abord la compréhension du mécanisme physique qui régit la coalescence des bulles. Par rapport aux travaux connus sur la coalescence des particules, les bulles dans le conduit volcanique n’ont pas une position spatiale ni une vitesse relative, mais peuvent coalescer seulement grâce au rapprochement de leur parois. La détermination d’un taux de coalescence physiquement adapté à cette situation a abouti à l’écriture d’un modèle de coalescence multi-dimensionnelle, posant ainsi d’inté- 12 13 Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 α Mathématiques Explosion d’une bulle de gaz formée à partir de millions de bulles plus petites. ressantes questions mathématiques. Le modèle mathématique incluant la croissance et coalescence des bulles est maintenant mis à l’épreuve. Les premières comparaisons avec les résultats expérimentaux sont tout à fait satisfaisantes et demandent la réalisation de nombreuses expériences pour une validation plus complète. Mathématiques Ce travail inter-disciplinaire montre que la mise en commun des différentes cultures et formations scientifiques permet non seulement d’avancer dans la compréhension de phénomènes naturels qui nous entourent, mais aussi de faire évoluer la théorie mathématique. Simona Mancini < mAPMO [email protected] Mesures sur des sillons réalisées en laboratoire. éviter que les petits ruisseaux ne deviennent de grandes rivières Les inondations et les coulées boueuses peuvent avoir un impact important sur les habitations et les voies de circulations. Mieux savoir les modéliser pourrait permettre d’installer des aménagements, tels que des bandes enherbées, afin de limiter les conséquences des événements à venir. Le constat était que, afin d’aménager au mieux les terrains pour prévenir des inondations, il est nécessaire de savoir mieux modéliser le ruissellement. En effet, les logiciels utilisés actuellement au niveau décisionnel ne donnent pas entière satisfaction, car, en particulier, les prévisions fournies peuvent être assez éloignées de la réalité. Le but de la collaboration avec l’unité de recherche Science du Sol (INRA Val de Loire Orléans) a donc été de modéliser plus précisément le ruissellement de l’eau sur une surface agricole, sans prendre en compte l’érosion dans un premier temps. La modélisation du ruissellement 14 Le ruissellement entre dans la catégorie des écoulements de faible profondeur, puisque les hauteurs d’eau sont très faibles (quelques millimètres) par rapport aux dimensions horizontales considérées (supérieures à 10 mètres). Les équations qui régissent de tels écoulements sont les équations de Saint-Venant, équations qui relient entre elles la hauteur d’eau et la vitesse de Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 les représenter explicitement. Pour cela, un terme de type « frottement » qui ralentit l’eau de la même façon que les sillons, a été ajouté. Ce frottement est fonction de la taille des sillons via la quantité d’eau qui peut être stockée dans un sillon.Après avoir développé le logiciel pour le ruissellement, les mathématiciens s’intéressent à la modélisation de l’érosion des sols. Ce phénomène complexe demande d’étudier simultanément les particules mises en suspension, Topographie représentant les sillons. Topographie plane à laquelle on ajoute un frottement pour tenir compte de l’existence de sillons. transportées et déposées. Il sera nécessaire de modéliser chaque partie du phénomène comme par exemple l’impact des gouttes de pluie sur l’érosion. Carine LUCAS < mAPMO [email protected] l’écoulement, en fonction des différents paramètres physiques comme la pente ou les frottements à la surface du sol. Outre les difficultés liées aux mesures de certains paramètres, il est en général impossible de trouver une solution exacte à ces équations. Aussi, le travail des mathématiciens consiste à développer des méthodes numériques les résolvant de manière approchée. C’est ainsi qu’a été développé le logiciel FullSWOF, reposant sur des méthodes numériques adaptées et efficaces. La prise en compte des sillons sans les représenter Lorsque l’on cherche à simuler le ruissellement dans un champ de plusieurs hectares, il est impossible de prendre une résolution suffisamment grande pour représenter chaque sillon. Cela supposerait de cartographier le champ avec une résolution de quelques centimètres, ce qui est quasi inatteignable au niveau de la mesure, mais qui, de toutes façons, serait trop coûteux du point de vue numérique. Statistiques et énergies renouvelables Le domaine des énergies renouvelables, où les ressources sont très aléatoires et intermittentes, est un champ d’application intéressant pour la théorie des probabilités et les méthodes statistiques. La demande croissante en énergie et la prise de conscience écologique a redonné plus d’importance aux énergies dites renouvelables : énergie d’origine solaire, éolienne, hydraulique, thermique ou végétale. La part de ces énergies dans le parc énergétique reste cependant en deçà des objectifs annoncés, pour plusieurs raisons : choix politiques, rentabilité, difficultés technologiques, mais surtout caractère hautement aléatoire et intermittent des ressources . Des ressources et énergies aléatoires et intermittentes Le domaine des énergies renouvelables est un champ d’application intéressant pour la théorie des probabilités et les méthodes statistiques. Pour un lieu et un jour donnés, le rayonnement solaire sous ciel clair ou rayonnement extra-terrestre (extraterrastral solar radiation), suit une courbe connue. Ce rayonnement est rendu très aléatoire par le passage des nuages, les conditions météorologiques et la réflexion du rayonnement des objets environnants, c’est le rayonnement solaire global. L’indice de clarté (clearness index) kt est le quotient Avec le logiciel FullSWOF, il a été possible de prendre en compte les sillons agricoles sans 15 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 α Mathématiques permet aussi de faciliter la modélisation et la prédiction sur cet intervalle pour les séquences d’une même classe. Cela est d’autant plus intéressant que l’on ne change pas de classe pendant plusieurs journées consécutives. du rayonnement global par le rayonnement extra-terrestre. Si est appelée séquence, une suite d’observations entre deux instants, on observe le caractère intermittent des séquences : chutes et pics se succèdent. L’énergie induite par une séquence, qui est l’intégrale de la séquence, est donc elle aussi aléatoire et intermittente. Concernant l’énergie éolienne, chacun a eu l’occasion d’observer que la direction du vent et son module sont aléatoires et intermittents. Il en est de même pour l’énergie hydrolienne. La maîtrise des énergies renouvelables nécessite donc l’utilisation des techniques de probabilités et de statistiques. La classification de séquences Regrouper en un nombre fini de classes homogènes, des séquences observées pendant un même intervalle de temps, permet d’établir des séquences types et Certaines méthodes de classification utilisent une notion de distance entre séquences, distance qu’on est amené à choisir. D’autres partent d’une analyse en composantes principales (ACP) des séquences. Enfin on peut aussi ne s’intéresser qu’aux valeurs prises par les séquences et classifier leurs histogrammes par une estimation de mélanges de lois de Dirichlet. La convergence (consistence) de la classification, quand le nombre de tranches de l’histogramme augmente, se démontre à l’aide du théorème des martingales et d’un théorème sur les processus de Dirichlet. L’intérêt de la modélisation Décrire les courbes observées à l’aide de modèles probabilistes est une tâche très délicate mais elle présente plusieurs intérêts comme évidemment la prédiction de l’énergie dont on pourrait disposer entre deux instants. Un deuxième intérêt, moins connu, est qu’un modèle adéquat améliore considérablement la conception des convertisseurs (panneaux solaires, éoliennes, ...). Par exemple, à partir d’un modèle probabiliste, on peut simuler par ordinateur de nombreuses séquences de vents pour régler les composantes électroniques des éoliennes grâce à un programme d’optimisation. Le processus du module du vent a été modélisé par des séries temporelles et par le Mouvement Brownien Multifractionnaire, un processus plus irrégulier que le Mouvement Brownien. L’index de clarté de séquences courtes a été modélisé par une EDS (équation différentielle stochastique) et celui d’une séquence journalière par une EDS en milieu aléatoire [9], où le milieu qui représente l’aléa due à l’environnement est modélisé par une chaîne de Markov à temps continu. Enfin des modèles de séries spatiotemporelles ont été utilisés pour prédire, à partir de quelques points de mesure, le rayonnement solaire au voisinage de ces points. Cela permet d’établir une cartographie du rayonnement solaire sans avoir besoin d’effectuer des mesures en tout point. Richard EMILION < mAPMO [email protected] L’évolution du climat de la Terre est difficile à prédire en raison du nombre gigantesque de variables impliquées. Même les modèles numériques les plus sophistiqués représentent l’atmosphère, les océans et les continents de manière forcement discrétisée, en spécifiant des valeurs de la température, la pression, la vitesse du vent, etc, moyennées sur des volumes de plusieurs kilomètres cube. 16 tion. En première approximation, on retient souvent le bruit blanc, plus facile à contrôler mathématiquement. L’effet le plus dramatique du bruit est de produire des transitions entre des états qui seraient stables en son absence. Or des transitions relativement abruptes entre régimes climatiques stables ont eu lieu par le passé, comme le révèlent les données Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 Position d’une bille dans un potentiel à 2 puits. dix glaciations majeures, entrecoupées à intervalles assez réguliers, de périodes plus clémentes, environ tous les 90 000 ans. Selon la théorie proposée par James Croll au 19ème siècle et développée par Milutin Milankovitch dans la première moitié du 20ème siècle, la périodicité serait due à des variations des paramètres de l’orbite terrestre, en particulier son excentricité, qui influencent l’insolation moyenne. Toutefois les variations d’insolation semblent trop faibles pour expliquer les transitions entre glaciations et périodes de climat tempéré. Au début des années 1980, deux groupes de chercheurs ont proposé indépendamment que les transitions étaient facilitées par l’effet d’un bruit. Ce phénomène, appelé résonance stochastique, peut s’illustrer à l’aide d’un exemple très simple : supposons que l’évolution de la température moyenne soit régie par une équation différentielle, admettant deux valeurs stables qui corres- pondent aux périodes de glaciation et de climat tempéré. On peut visualiser la dynamique de la température en l’assimilant à la position d’une bille dans un potentiel à deux puits. La profondeur des puits varie périodiquement sous l’effet des paramètres orbitaux, mais sans permettre de transition entre régimes climatiques. En ajoutant un terme de bruit dans l’équation différentielle, on s’aperçoit que les transitions entre puits de potentiel deviennent possibles. La distribution de probabilité des temps de transition dépend des paramètres du système : amplitude et fréquence de forçage périodique et intensité du bruit. Pour une amplitude de forçage nulle, les temps de transition sont distribués de manière exponentielle. A mesure que l’amplitude de forçage augmente, les transitions deviennent de plus en plus régulières. Le calcul de la loi des temps de transition, même pour ce modèle relativement simple, est un problème mathématiquement non trivial. Il peut néanmoins être résolu, pour des intensités faibles du bruit, à l’aide d’outils d’analyse stochastique. On obtient une distribution exponentielle modulée périodiquement, la modulation étant liée à la loi dite de Gumbel. Il existe de nombreux autres exemples de transitions critiques dans le système climatique, affectant par exemple la circulation thermohaline Nord-Atlantique (le Gulf Stream), la banquise Antarctique, ou la désertification. Une meilleure compréhension de l’effet d’un bruit sur ces transitions aidera à mieux prédire les variations climatiques futures. Nils Berglund < MAPMO [email protected] L’imagerie mathématique au secours des monuments dégradés Le climat et ses aléas Au lieu d’ignorer simplement les erreurs d’approximation, il peut être préférable de simuler leur effet par un terme aléatoire qu’on appelle un bruit. Il existe plusieurs modèles mathématiques de bruit, le mieux connu étant le bruit blanc gaussien. Mais il y en a de nombreux autres : bruits corrélés, processus de Levy,… Choisir un bruit approprié est un problème difficile de modélisa- Mathématiques paléoclimatiques obtenues par l’étude de différents indicateurs (appelés proxies) tels que les carottes glacières et des dépôts sur les fonds marins. Ces transitions sont-elles dues à l’effet du bruit ? L’exemple le plus connu de transition climatique est celui des glaciations. Pendant le dernier million d’années, la Terre a connu Les moyens d’imagerie actuels permettent d’ausculter l’intérieur des pierres mise en œuvre dans la construction de monuments historiques. Les techniques d’analyse mathématique extraient ensuite des images obtenues des informations sur la structure des matériaux altérés au fil du temps. La protection du patrimoine Les monuments historiques subissent l’action de leur environnement et sont dégradés, voire fortement endommagés. Ces ouvrages sont des parties intégrantes de notre patrimoine et constituent des œuvres d’art irremplaçables qu’il convient de protéger, d’entretenir et de réparer. C’est pourquoi une communauté variée (architectes, restaurateurs, géologues, physiciens, mathématiciens) met en commun ses efforts pour préserver ce patrimoine. L’objectif est d’obtenir une description à toutes les échelles des processus de diffusion de l’eau dans les réseaux poreux des pierres utilisées pour la construction des monuments historiques. L’analyse s’est focalisée sur une pierre sédimentaire, le tuffeau, utilisée dans de nombreux monuments historiques le long de la vallée de la Loire. Ces pierres extrêmement poreuses (40 à 50% de vide) sont composées principalement de calcite (40 à 70%) et de silice (20 à 60%) sous forme de quartz (grains) et d’opale (sphérules). 17 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 α Mathématiques Mathématiques Penser global – Agir local, la théorie du contrôle en écologie et agronomie Gérer les écosystèmes naturels et agronomiques au plus près, afin de préserver les services écosystémiques et de promouvoir une agriculture durable, implique le développement et l’utilisation de nouveaux outils mathématiques capables de représenter une réalité complexe. Dans ce contexte, il s’agit de déterminer par analyse d’images 3D, à l’échelle du micromètre, les modifications minéralogiques et structurales du tuffeau dues à des phénomènes d’altération. Les mathématiciens disposent d’images de micro tomographie X obtenues par l’Institut des Sciences de la Terre d’Orléans (ISTO – UMR 7327 CNRS/ Université d’Orléans/BRGM), pour identifier la forme et la structure 3D des phases poreuses et solides. Une difficulté particulière toutefois : les images présentent des contours et des régions mal définies du fait de la porosité de la roche. La structure microporeuse du tuffeau se traduit par des éléments de texture qu’il convient d’analyser et de restaurer. Le but final de l’étude est d’identifier le milieu et de le reconstruire en 3D. Le domaine ainsi reconstitué servira de fondation à une modélisation physico-chimique des transferts hydriques dans le matériau. Dans la perspective de la modélisation des transferts de fluide et de masse dans le réseau poreux du matériau, la connaissance de la structure, la morphologie et la minéralogie des pierres est une étape primordiale. Cet objectif peut être atteint en procédant à l’analyse des images tridimensionnelles obtenues par microtomographie X. Un modèle mathématique de décomposition d’image Les images de micro-tomographie X sont des images en niveaux de gris, présentant plusieurs régions correspondant aux différentes phases de la pierre. L’analyse d’images de milieux aussi complexes nécessite des méthodes qui préservent au maximum l’information originale. Le modèle mathématique utilisé décompose les images en différentes composantes (calques) qui appartiennent chacune à des espaces mathématiques différents, « ciblant » donc des caractéristiques différentes de l’image. Plus précisément, l’image est décomposée en un calque qui capte la dynamique générale (remédiant ainsi aux éventuels problèmes d’éclairage), une partie captant les contours (ou les macrotextures) et une composante isolant le bruit et/ou les micro-textures. Le modèle fournit ainsi une méthode de débruitage non blissement de réserves marines, combiné à l’allocation de zones de pêche spatialement ajustées. Les travaux les plus récents démontrent qu’il est possible, en définissant des zones de protection totale et des zones de capture, d’augmenter non seulement les stocks de poissons, qui ont tendance à aller de manière privilégiée dans les zones de refuges, mais également les tonnages pêchés, dès lors où les zones de pêche sont contigües. destructive et des informations morphologiques sur la structure de la roche. A cela s’ajoute le réglage de différentes échelles via des paramètres. De cet ensemble naît une description précise du vide à l’intérieur de la pierre, en 3D. L’objectif est de comprendre et prédire l’influence de la structure d’un milieu poreux désordonné sur l’écoulement d’un fluide imprégnant le matériau. La reconstitution précise du milieu 3D va permettre d’utiliser des modèles de transfert hydrique pour décrire complètement le phénomène d’érosion de la pierre. C’est un travail sur le long terme qui va mobiliser physiciens et mathématiciens Vers une boîte à outils mathématiques Maïtine BERGOUNIOUX < mAPMO [email protected] http://www.univ-orleans.fr/MAPMO Les processus écologiques sont dynamiques dans le temps et l’espace. Les contrôler implique par conséquent des perturbations temporelles ou spatiales. Les études sur le contrôle temporel des populations, par application de pesticides contre des insectes, champignons ou mauvaises herbes, ou par augmentation de la quantité de nourriture pour les oiseaux en hiver par exemple, sont légions. L’étude du contrôle spatial des populations est par contre très récente, les premiers travaux datant des années 90. Un contrôle judicieux et parcimonieux On distingue le contrôle intrinsèque, comme celui des prédateurs sur les proies, du contrôle forcé lorsque l’homme intervient, par exemple en favorisant l’établissement de pollinisateurs en établissant des bandes 18 Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 enherbées le long des champs comme lieux de nourriture et d’abris privilégiés. L’idée même d’utiliser le contrôle spatial consiste à déterminer les conditions spatiales menant à un contrôle efficace sur l’ensemble d’une surface : les caractéristiques idéales de l’emplacement du contrôle sont déterminées en se basant sur les phénomènes de diffusion. Selon la valeur des paramètres, le contrôle peut finalement se propager sur l’ensemble de l’espace, tout comme un tapis qui se déroulerait de lui-même. Penser spatialement conduit donc à utiliser le contrôle, quel qu’il soit, de manière judicieuse et parcimonieuse, ce qui est souhaitable écologiquement et économiquement. Un domaine d’applications écologiques qui connaît des avancées majeures est l’éta- L’étude du contrôle temporel des ravageurs par la lutte biologique – l’utilisation d’ennemis naturels tels que les coccinelles contre les pucerons- en utilisant la théorie du contrôle optimal est récente. Des équations différentielles à « impulsions » sont généralement utilisées, car elles prennent en compte la continuité temporelle du contrôle par les prédateurs ainsi que la nature discontinue des mesures appliquées, tels que les lâchers. Il reste passablement des travaux en mathématiques appliquées à développer sur les systèmes hybrides avant que ces équations fassent partie d’une boîte à outils facilement utilisable par les biologistes et les agronomes. « ...aucune des études conduites à ce jour n’a considéré le contrôle spatial... » Dans l’exemple de la lutte contre la mineuse du marronnier, le contrôle de cet insecte a 19 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 α Mathématiques Contrôle d’une population L’évolution temporelle de l’organisme et le contrôle appliqué par l’homme peuvent être modélisés par l’équation différentielle suivante : h(t ) + rh(t ) 1 − , t ∈� \T� h '(t ) = K + = j∈� ρ h jT − , h jT − h 0 = h0 > 0 ( ) ( ) ( ) h(t) = densité d'organismes au temps t r = taux de croissance K = capacité d'accueil ρ = amplitude de prélèvement T = temps entre 2 contrôles successifs On démontre que la densité diminue et tends à disparaître si ρ e < 1 . Cela veut dire que si r et ρ sont fixés, il faut augmenter la fréquence d’application du contrôle pour contrôler la population de l’organisme invasif, ce qui équivaut à diminuer l’intervalle entre deux traitements, T. rT été optimisé par le ramassage de feuilles ; une fréquence et un effort de collecte suffisant peuvent apparemment venir à bout de ce problème, pour l’instant sans solutions. Néanmoins, aucune des études conduites à ce jour n’a considéré le contrôle spatial, alors que bien des systèmes de production agricole sont spatialement structurés. Les bandes enherbées en sont un exemple et la recherche n’est pas encore à même de donner des indications fiables sur le contrôle attendu en fonction de la largeur de la bande ou son emplacement. L’agroforesterie, un exemple de structuration spatiale Marier arbres et champs est une ancienne façon de concevoir l’agriculture qui revient en force, de part les multiples avantages induits - protection des sols et des bassins versants, puits de carbone, biodiversité plus élevée, rendements mixtes meilleurs. Les zones entre les arbres au sein d’une rangée ne sont généralement pas exploitées et leur gestion peut favoriser toute une faune d’axillaires. Les coccinelles, carabes, et autres syrphes apprécient le pied et la couronne des arbres comme lieux de repos, de ponte ou encore d’appoint nutritionnel. Si l’on désire privilégier leurs services dans la parcelle (un des nombreux services écosystémiques), il faut alors s’intéresser à la conduite de ces espaces (enherbage, débroussaillage etc.) mais aussi aux mouvements de ces insectes tout en tenant compte de l’interaction des proies et prédateurs, sous forme de mortalité et natalité. Ces équations de réaction-diffusion relativement complexes, notamment utilisées dans des modèles de morphogénèse par A. Turing, peuvent aboutir à un contrôle spatial intrinsèque dans un espace homogène ou hétérogène. Penser global en faisant travailler le contrôle pour nous, en n’intervenant que de manière locale à des endroits précis et en laissant le système opérer par la suite sur l’ensemble de la parcelle est souhaitable écologiquement et économiquement. Prenons l’exemple d’une espèce invasive que l’on veut contrôler. Si les moyens de contrôle sont limités, alors mieux vaut concentrer localement le contrôle sur une zone que d’agir partout. Si on positionne la zone de contrôle de manière adéquate, on arrive à éliminer l’envahisseur sur la totalité du domaine. La lutte biologique nécessite un soin particulier et un suivi très régulier ; optimiser le choix des lieux de perturbation respecte l’écosystème et minimise les coûts. C’est le but des recherches actuelles à l’Institut de Recherche sur la Biologie de l’Insecte (IRBI – UMR 7261 CNRS/Université François Rabelais) avec le Laboratoire de Mathématiques et de Physique Théorique (LMPT – UMR 7350 CNRS/Université François Rabelais) car il faut urgemment passer d’une agriculture intensive en entrants chimiques à une agriculture écologiquement intensive, gourmande en savoir. Le contrôle spatial peut y contribuer pleinement. Mathématiques Christelle SUPPO < IRBI [email protected] Sten MADEC < LMPT [email protected] Guy BARLES < LMPT [email protected] Jérôme CASAS < IRBI [email protected] http://irbi.univ-tours.fr/ http://www.lmpt.univ-tours.fr/ De l’équation à la guérison L’efficacité thérapeutique des anticorps monoclonaux n’est plus à démontrer. La modélisation mathématique permet d’en optimiser l’efficacité et d’en limiter les effets indésirables. Les anticorps monoclonaux sont utilisés depuis 1995 pour le traitement d’affections graves telles que les maladies inflammatoires chroniques et les cancers. Ils font partie des « biomédicaments » car ils sont produits par des cellules en culture et non par synthèse chimique Un traitement, plusieurs réponses Bien que les anticorps monoclonaux aient toutes les caractéristiques des anticorps que notre organisme développe pour se protéger des infections, et bien que leur cible dans l’organisme soit parfaitement connue, tous les patients ne réagissent pas de la même façon au traitement : certains subissent des effets indésirables, d’autres sont confrontés à une inefficacité thérapeutique. Il est donc nécessaire de comprendre quelles sont les causes de cette variabilité de réponse et d’étudier comment personnaliser la posologie pour chaque patient. C’est le sujet de recherche de l’ équipe 1 du Laboratoire Génétique, Immunothérapie, Chimie et Cancer (GICC – UMR 7292 CNRS/ Université François-Rabelais de Tours)*. 20 Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 21 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 α Mathématiques Variabilité pharmacocinétique du cetuximab dans le cancer colorectal métastatique. (A) : La PK est décrite à l’aide d’un modèle à deux compartiments. La capacité globale d’élimination est constituée de l’élimination non spécifique (k10) et de l’élimination spécifique (k0), liée à l’EGFR. (B) : Les patients ayant une capacité d’élimination globale plus élevée (bleu) présentent des concentrations plus faibles. (C) : Les patients ayant une capacité d’élimination globale supérieure à la médiane (bleu) avaient un risque de progression de la maladie plus élevé que les autres patients. (D) : Dès le 14ème jour, la concentration de cetuximab permettait de prédire la capacité globale d’élimination, donc le temps pendant lequel un patient traité ne présentera pas de rechute. 22 Vers une personnalisation des traitements Dans le cas du cancer colorectal… Les sources potentielles de variabilité de réponse sont très nombreuses : poids, sexe, facteurs génétiques, gravité de la maladie, médicaments associés, etc. Seule la modélisation mathématique permet d’étudier tous ces facteurs individuels de façon simultanée et de quantifier leurs effets respectifs. Les modèles utilisés « dissèquent » la relation entre dose administrée et réponse du patient. Ils différencient la relation entre dose et concentration sanguine, décrite par des modèles pharmacocinétiques (« PK ») et la relation entre concentration sanguine et réponse, décrite par des modèles pharmacocinétiques-pharmacodynamiques (« PK-PD »). Une fois construit, le modèle peut être utilisé pour simuler la réponse attendue chez les patients avec différentes posologies et donc pour concevoir des études cliniques améliorant l’efficacité thérapeutique et diminuant les effets indésirables de ces médicaments indispensables. Le cetuximab est un anticorps monoclonal anticancéreux qui se fixe sur l’EGFR, un récepteur agissant sur la croissance des tissus. Il inhibe ou détruit les cellules qui l’expriment à leur surface. Dans le cancer colorectal, la dose de cetuximab est ajustée à la surface corporelle, une mesure prenant en compte à la fois le poids et la taille des patients. « L’adaptation individuelle de la posologie s’avère donc très prometteuse. » Malgré cet ajustement, il persiste une grande variabilité de réponse au traitement. L’approche des chercheurs cliniciens, biologistes et biométriciens du GICC a tout d’abord consisté à décrire la pharmacocinétique du cetuximab chez chacun des 96 patients inclus dans une étude clinique. Ils ont montré que cet anticorps est éliminé de l’organisme à la fois par un mécanisme non spécifique, commun aux anticorps, Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 et par un mécanisme spécifique, lié à la quantité d’EGFR. Il a ensuite été observé que les patients ayant une capacité d’élimination globale supérieure à la médiane (donc les concentrations de cetuximab les plus faibles) avaient un risque de progression de la maladie plus important que les autres patients. Par ailleurs, les chercheurs ont observé que dès le 14ème jour (juste avant la 3ème injection du biomédicament), la concentration de cetuximab permettait de prédire la survie sans progression des patients, c’est-à-dire le temps pendant lequel un patient traité ne présentera pas de rechute de sa maladie. L’adaptation individuelle de la posologie s’avère donc très prometteuse. … de la polyarthrite rhumatoïde Ce rhumatisme inflammatoire chronique est tout à la fois douloureux et invalidant. Le TNF-α, un médiateur de l’inflammation impliqué dans cette maladie, est bloqué par l’infliximab. Cet anticorps monoclonal a bouleversé le traitement de cette affection. Son efficacité est en partie déterminée par ses concentrations sanguines car elle augmente avec elles. La recherche de facteurs expliquant la variabilité des concentrations est donc indispensable. Trois de ces facteurs ont été identifiés par le laboratoire : - la vitesse d’élimination de l’infliximab par l’organisme augmente avec l’inflammation. Les patients dont la maladie est très active auront donc des concentrations plus faibles que les autres patients et le traitement sera moins efficace chez eux. Ils bénéficieraient de doses plus fortes. - l’infliximab étant une protéine étrangère à l’organisme, certains patients peuvent s’immuniser contre elle. Cette immunisation est associée à une élimination beaucoup plus rapide de l’anticorps et entraîne une perte de son efficacité. - l’association de traitements anti-inflammatoires, comme le méthotrexate, entraîne une diminution de l’inflammation, donc une diminution de l’élimination de l’infliximab et une augmentation de ses concentrations. La quantification de l’influence de ces trois facteurs permettra de définir la posologie optimale pour chaque patient. … ou du lymphome malin Le rituximab, autre anticorps monoclonal, se fixe sur le CD20, une protéine exprimée à la surface des lymphocytes B. En ciblant les cellules des lymphomes malins, il provoque leur destruction par le système immunitaire, et a révolutionné le traitement de cette maladie. La dose de rituximab administrée pour traiter les lymphomes est de 375 mg par unité de surface corporelle. Le traitement comporte une phase d’induction (visant à réduire la maladie), durant laquelle les patients reçoivent 6 ou 8 injections toutes les 3 semaines, puis une phase de maintenance, avec une dose tous les 2 ou 3 mois. Toutefois, aucune étude n’a démontré que cette dose était optimale. A l’aide des informations disponibles dans la littérature, les chercheurs ont construit un modèle mathématique pour déterminer la dose optimale de rituximab dans les lymphomes. Ce modèle quantifie la relation entre les concentrations sanguines de rituximab, décrites à l’aide d’un modèle PK, et l’efficacité, décrite par la survie sans progression. D’après le modèle, la dose d’induction de 375 mg/m2 est correcte. En revanche, la dose de maintenance optimale Mathématiques serait de 1500 mg/m2 car elle permettrait d’augmenter d’environ 10% la survie sans progression à 2 ans. L’équipe poursuit actuellement son étude des sources de variabilité de réponse aux anticorps thérapeutiques en recherchant notamment l’influence des facteurs génétiques individuels. Par ailleurs, ses chercheurs étudient, grâce à la modélisation PK-PD, quelle concentration d’anticorps doit être « ciblée » selon la maladie et son stade et donc comment optimiser la personnalisation de la dose administrée à chaque patient. Gilles PAINTAUD < GICC [email protected] David TERNANT < GICC [email protected] Nicolas AZZOPARDI < GICC [email protected] http://gicc.cnrs.univ-tours.fr *Ces travaux ont partiellement été financés par le LabEx MAbImprove. Les génotypages et les mesures de concentrations d’anticorps monoclonaux ont été réalisées sur la plateforme du CePiBAc, cofinancé par l’Union Européenne. L’Europe s’engage en région Centre avec le Fonds Régional Européen de Développement (FEDER). Survie sans progression avec dose de maintenance à 375 mg/m2 (bleu clair) et à 1500 mg/m2 (bleu foncé), décrite à l’aide d’une fonction exponentielle négative qui suppose l’indépendance de survenue des rechutes entre elles (équation 1). Selon le modèle, le taux de rechute (λ) est d’autant plus important que les concentrations de rituximab sont faibles (équation 2). La moyenne mobile des concentrations (Cm) prend en compte la persistance de l’effet anti-tumoral du rituximab après élimination de celui-ci (équation 3). 23 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 Biologie Biologie © CRIBL CNRS Rôle de la 3’RR dans l’expression des anticorps Rôle de la 3’RR dans le développement de lymphome Le lymphocyte B, une usine à fabriquer des anticorps de mieux s’adapter aux antigènes, et ainsi de combattre plus efficacement les pathogènes qui menacent notre organisme. Maîtriser les dangers Tout au long de la vie, notre organisme subit les attaques d’éléments pathogènes, tels que microbes, virus, parasites... Pour y faire face, il possède un ensemble d’organes, de tissus et de cellules spécialisés dans la protection contre ces attaques : c’est le rôle du système immunitaire. Ce système complexe doit être capable de s’adapter pour éliminer rapidement et spécifiquement l’ensemble des pathogènes que rencontre quotidiennement l’organisme. Pour cela, il dispose entre autre des lymphocytes B, des cellules de la famille des globules blancs capables de produire des anticorps, également appelés immunoglobulines. Les anticorps sont des molécules complexes en forme de « Y » contenant une partie variable et une constante. Le partie variable, située au bout du Y permet à l’anticorps de reconnaître l’antigène, tandis que la partie constante permet le recrutement des autres éléments du système immunitaire. Alors qu’il n’existe que cinq types de parties constantes différentes, la partie variable de chaque anticorps doit être capable d’identifier un seul antigène, d’où la nécessité pour l’organisme de générer une grande quantité d’anticorps possédant des parties variables différentes. Des anticorps millions 24 par Le rôle des lymphocytes B est donc de synthétiser des anticorps spécifiques des antigènes à la surface des pathogènes. Comme toutes les protéines, les chaînes qui forment les anticorps sont codées par des gènes. Dans le cas des chaînes lourdes, la portion de chromosome contenant les gènes est appelée locus IgH. Le problème est de déterminer comment, à partir d’un génome unique, commun à toutes les cellules du corps, les lymphocytes B vont réussir à se diversifier pour créer Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 des dizaines de millions d’anticorps différents, capable de lutter contre les dizaines de millions de pathogènes que rencontrera l’individu au cours de sa vie. Afin de produire cette grande diversité d’anticorps, les lymphocytes B vont devoir remanier leur gène et assembler comme des Légos® trois types de segments d’ADN dits V, D et J. Chez l’homme, on dénombre 152 segments V, 20 segments D et 4 segments J. La cellule va couper son ADN, afin de conserver un seul gène de chaque segment. Les segments sont choisis de manière aléatoire, ce qui autorise un grand nombre de combinaisons possibles (on parle de diversité combinatoire), mais bien loin des centaines de milliers nécessaires. Les anticorps ainsi obtenus sont malgré tout de mauvaise qualité, et ne se lient que faiblement aux antigènes. Pour bien remplir leur rôle, ils ont besoin d’être améliorés, modifiés, optimisés… Cette optimisation indispensable nécessite un processus appelé « hypermutation somatique », qui correspond à une accumulation de mutations dans l’ADN codant les parties variables des anticorps, pour leur permettre Ces mécanismes permettent donc d’obtenir une réponse immunitaire optimale, mais constituent pour les généticiens un phénomène particulièrement intrigant. Alors que notre génome est normalement réputé très stable, une cellule unique très particulière, le lymphocyte B, s’est arrogé le droit de le muter afin d’optimiser les anticorps qu’elle produit grâce à une succession de cassures de l’ADN et de mutations. « ...ces mécanismes se doivent d’être contrôlés de façon très stricte... » Phénomène dangereux, potentiellement cancérogène (les lymphocytes B sont d’ailleurs malheureusement à l’origine de beaucoup de lymphomes et de leucémies), ces mécanismes se doivent d’être contrôlés de façon très stricte dans le temps (pendant la réponse à l’antigène) et dans l’espace (de façon strictement limitée aux gènes d’immunoglobulines). Cette régulation est assurée par des séquences particulières d’ADN réparties tout au long du segment de chromosome qui code les anticorps. Le Laboratoire de Contrôle de la Réponse Immune B et des Lymphoproliférations (CRIBL - UMR 7276 CNRS/Université de Limoges, CHU de Limoges) s’intéresse en particulier à l’une de ces régions, nommée « région régulatrice localisée en 3’ du locus IgH » (ou 3’RR). Elle est principalement connue pour réguler la synthèse des chaînes lourdes d’anticorps, pour s’assurer qu’elles ne soient exprimées que dans les lymphocytes B, et uniquement lors d’une réponse immunitaire. Outre son rôle essentiel dans la coordination de l’expression des gènes codant les anticorps, la 3’RR possède également un côté délétère. En effet, les phénomènes de cassures et mutations se produisant dans l’ADN des lymphocytes B font du locus IgH une zone critique de translocations, c’est-à-dire d’échange de fragments entre les chromosomes. Lorsqu’un gène est déplacé au locus IgH, son expression est activée par la 3’RR. Or, certains gènes appelés oncogènes, lorsqu’ils sont dérégulés, rendent la cellule cancéreuse. Ainsi de nombreuses études, dont celles du CRIBL, ont montré le rôle de la 3’RR dans le développement de lymphomes. l’étude des gènes codant les anticorps dans les souris 3’RR déficientes permet de déterminer les mécanismes qu’elle contrôle. Les premiers travaux sur ces modèles ont déjà montré que la 3’RR n’est pas importante lors des réarrangements VDJ (mécanisme visant à former la partie variable de l’anticorps) mais est essentielle dans le choix de la partie constante de l’anticorps. Récemment, les chercheurs ont démontré un rôle de la 3’RR dans l’hypermutation somatique, le mécanisme introduisant les mutations dans les gènes des parties variables : elle constitue l’interrupteur ON/OFF de ce mécanisme qui participe ô combien à la diversité de la réponse immunitaire. Elle assure le ciblage précis de la protéine appelée AID, responsable des mutations dans la partie variable. Des mécanismes mis en évidence La mise en évidence d’une telle coopération entre la 3’RR et la protéine AID est une avancée majeure dans la compréhension des remaniements géniques se produisant dans les gènes des anticorps, et potentiellement à l’origine de la cancérisation d’un lymphocyte B. A plus long terme, la meilleure compréhension des événements aboutissant au développement d’un lymphome est nécessaire pour l’émergence de nouvelles perspectives thérapeutiques. L’objectif du laboratoire est de déterminer comment la 3’RR contrôle les mécanismes qui permettent aux lymphocytes B de casser leur ADN uniquement au niveau du locus IgH, tout en maintenant l’intégrité du reste de leur génome. Cette ambition s’est concrétisée en 2010 avec la création au laboratoire de modèles murins ne contenant plus la 3’RR dans leur génome. Cette technique de délétion génétique permet de mettre en évidence le rôle d’un élément dans des processus physiologiques : s’ils sont altérés, il peut alors en être déduit que la région supprimée joue un rôle crucial dans ces phénomènes. Comparativement à des souris normales (présentant toujours la 3’RR dans leur génome), Pauline Rouaud < CRIBL [email protected] Alexis SAINTAMAND < CRIBL [email protected] 25 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 Biologie Biologie Les synthèses d’ARN (transcription) et de protéine (traduction) constituent les deux étapes principales de l’expression des gènes. Lorsque l’ARN néo-synthétisé n’est pas protégé par le ribosome (ou par d’autres biomolécules), l’ARN hélicase Rho peut s’y fixer et l’utiliser comme « piste » de déplacement ATP-dépendant. Rho déplace alors les obstacles se trouvant sur son chemin, dont l’ARN polymérase, ce qui provoque la terminaison de l’expression génique. Ce mécanisme central de régulation contribue à diverses fonctions physiologiques chez la bactérie, importantes pour son métabolisme de base et son adaptation aux variations et stress environnementaux. © Thinkstock® Un moteur « six-cylindres » sous le capot d’un bolide microbien Le facteur Rho est un « nano-engin » biologique crucial pour l’expression et la protection des génomes bactériens. Cible d’un antibiotique naturel, la bicyclomycine, son mécanisme de fonctionnement est l’objet de toutes les attentions. 26 La cellule est une entité dynamique qui, pour fonctionner correctement, doit coordonner dans l’espace et dans le temps de nombreux évènements et transactions moléculaires. Une dérégulation de cette coordination spatio-temporelle peut être à l’origine de maladies mais peut aussi constituer la base de stratégies thérapeutiques efficaces. C’est le cas, lorsqu’on provoque volontairement et spécifiquement cette dérégulation chez un organisme pathogène. rant cellulaire majeur. Lorsqu’il est hydrolysé, il libère une énergie conséquente (~65 kJ/mole) qui est convertie en mouvements nanoscopiques par de nombreux moteurs moléculaires. C’est un peu comme la combustion d’essence dont l’énergie libérée (~4200 kJ/mole) est transformée en travail « physique » par un moteur thermique. Des moteurs moléculaires Le Centre de Biophysique Moléculaire (CBM, CNRS-Orléans) étudie une famille spécifique de moteurs moléculaires appelés « hélicases ». Ces dernières remanient l’organisation structurale de nombreux assemblages intracellulaires contenant des acides nucléiques. Il existe naturellement deux sortes d’acides nucléiques : l’ADN qui constitue nos gènes et l’ARN qui est produit à partir de ces gènes et impliqué dans de nombreux processus cellulaires essentiels. Pour assurer et orchestrer ses fonctions, la cellule dispose de « nano-engins » capables de fabriquer, transporter, remodeler ou détruire les nombreuses molécules et assemblages moléculaires complexes qui la composent. Il existe notamment des enzymes appelés « moteurs » moléculaires (ou protéines moteurs) qui peuvent générer un couple ou une force (jusqu’à quelques dizaines de pico-Newtons) à partir d’un « carburant » cellulaire. Par exemple, l’enzyme « F1F0-ATP synthase » exploite le principe des piles et batteries (différence de potentiels électrochimiques au travers une membrane, ici la membrane cellulaire) pour alimenter la rotation de ses composants assurant la synthèse d’une molécule essentielle à la vie, l’ATP (Adénosine-5’-TriPhosphate). L’ATP est lui-même un carbu- «...moteurs moléculaires appelés "hélicases".» On distingue ADN hélicases et ARN hélicases suivant leur spécificité (ou préférence) pour l’ADN ou l’ARN. Les hélicases peuvent, par exemple, séparer les deux brins de la double hélice d’ADN lors de sa réplication (précédant la division cellulaire) ou encore, comme dans le cas de l’ARN hélicase Rho qui nous intéresse, interrompre la biosynthèse Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 d’ARN et ponctuer le processus complexe d’expression des gènes. Un objet biologique intrigant L’hélicase Rho est impliqué dans divers processus importants de l’expression et de la protection des génomes bactériens. Bien qu’ayant été abondamment étudiée, de nombreux aspects essentiels, liés à ses fonctions et à son mécanisme d’action, restent mal compris. C’est l’un des très rares exemples d’ARN hélicases organisées en anneau hexamèrique, une configuration habituellement réservée aux ADN hélicases. Ces dernières doivent séparer les deux brins d’ADN suivant un principe ressemblant à une fermeture éclair, en parcourant de grandes longueurs d’ADN (plusieurs milliers de paires de bases) sans s’en décrocher. Cette propriété est assurée par l’emprisonnement et le coulissement d’un des brins d’ADN au centre de l’anneau hélicase (tandis que l’autre brin reste exclu à l’extérieur), un mécanisme communément admis, y compris pour Rho. Pourtant, les chercheurs du CBM ont montré que Rho n’était pas capable de séparer plus de 60 à 80 paires de bases d’ARN avant de s’en détacher. Une explication probable est que l’anneau Rho subit des ouvertures transitoires pendant son déplacement le long de l’ARN, permettant à ce dernier de « s’échapper ». Rho reste néanmoins supérieur à la plupart des ARN hélicases (capables de n’ouvrir que quelques paires de bases d’ARN) et démolit ses cibles physiologiques (complexe de transcription, doubles hélices d’ARN/ADN appelées « R-loops ») avec une grande efficacité. Un bolide moléculaire Une marque distinctive de Rho est la présence de six sites d’hydrolyse de l’ATP au sein de son anneau hexamèrique. S’il est admis que tous les sites participent au cycle de fonctionnement élémentaire du moteur Rho, il n’est pas clair de quelle façon ils opèrent ni avec quel rendement énergétique. Des études structurales suggèrent que ces six « cylindres » fonctionnent l’un après l’autre et de manière ordonnée (comme dans un moteur thermique), conduisant collectivement à un mouvement de déplacement régulier de un nucléotide d’ARN -ou de séparation d’une paire de base- par molécule d’ATP hydrolysé (ce qui correspondrait à un rendement d’environ 10%). Des études biochimiques menées au CBM suggèrent au contraire un mouvement irrégulier constitué de « sauts » de sept nucléotides requérant 60 à 70% de l’énergie libérée par l’hydrolyse d’ATP. Il est probable que seules des analyses sophistiquées, à l’échelle de la molécule unique, permettront de trancher ces questions. Un partenariat a été initié dans ce sens avec des physiciens du Centre de Biochimie Structurale de Montpellier. Les premiers tests sont encore insuffisamment résolutifs mais ont en revanche permis d’évaluer la vitesse de déplacement de Rho à environ deux fois celle du complexe de transcription. Rho est donc un véritable bolide moléculaire qui engage une course avec un autre nano-engin (le complexe de transcription) car il doit le « caramboler » (et le détruire) avant que lui-même ne quitte la « piste » ARN (en s’en détachant). Bien des questions en suspens Rho n’est pas présent chez l’homme, les animaux ou les plantes mais, d’après une étude menée au CBM, il est codé par 92% des génomes bactériens référencés et a été détecté expérimentalement chez des espèces représentatives des grandes familles (phyla) de bactéries. S’il n’est pas sûr que Rho soit essentiel pour toutes ces bactéries, nombre d’entre elles (dont beaucoup d’entérobactéries pathogènes) sont sensibles à la bicyclomycine. Cet antibiotique naturel, isolé de bactéries du sol Japonais, se fixe à Rho et l’empêche d’hydrolyser l’ATP. Chez ~5% d’espèces provenant d’écosystèmes variés, Rho contient des mutations lui conférant une résistance à la bicyclomycine. Cette résistance est souvent liée à une moins bonne interaction (baisse d’affinité) entre la bicyclomycine et le facteur Rho muté. Dans certains cas, le changement paraît plus profond et concerner directement le mécanisme d’action de Rho. Chez Mycobacterium tuberculosis, par exemple, Rho semble être capable de démolir le complexe de transcription sans requérir l’hydrolyse d’ATP. Utilise-t-il une source d’énergie alternative dans ce cas ? Les fonctions biologiques et de moteur moléculaire de Rho ont-elles été dissociées chez cette espèce ? Telles sont les questions auxquelles l’équipe du CBM cherche maintenant des réponses. Celles-ci seront utiles pour comprendre le fonctionnement des ARN hélicases et des moteurs moléculaires en général mais également pour rechercher des alternatives à la bicyclomycine. Les propriétés pharmacologiques de cette dernière ne sont malheureusement pas optimales et son usage est limité au domaine vétérinaire. Mieux comprendre la « mécanique » du moteur Rho devrait faciliter la mise au point d’antibiotiques synthétiques capables de déréguler la physiologie bactérienne encore plus efficacement et sans danger pour l’homme. Marc BOUDVILLAIN < CBM [email protected] http://cbm.cnrs-orleans.fr 27 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 Chimie Chimie Wordle de mots clés utilisés en informatique moléculaire appliquée à la recherche pharmaceutique Illustrations de la Chémioinformatique La découverte de nouvelles molécules bioactives L’informatique moléculaire, dans la course aux nouveaux candidats médicaments L’équipe de Bioinformatique Structurale et Chémoinformatique de l’Institut de Chimie Organique et Analytique (ICOA, UMR 7311 CNRS/Université d’Orléans) développe et exploite les outils d’informatique moléculaire pour accélérer la conception de nouveaux candidats médicaments dans plusieurs domaines thérapeutiques. 28 Plusieurs définitions de l’informatique moléculaire existent. Dans le contexte de la recherche pharmaceutique, elle utilise différentes méthodes informatiques afin d’analyser, de comprendre et de prédire des propriétés physiques, chimiques ou biologiques de petites ou grosses molécules. Elle regroupe donc plusieurs disciplines comme la bioinformatique structurale, la chémoinformatique, la modélisation moléculaire, la visualisation moléculaire, etc. Elle s’appuie sur un ensemble d’outils informatiques aidant les chimistes médicinaux et informaticiens (ou computationnels), les bioinformaticiens, les biologistes et les biochimistes à mieux concevoir des molécules d’intérêt thérapeutique. L’ensemble de ces outils est très utilisé aujourd’hui en recherche de molécules bioactives, que ce soit dans les entreprises pharmaceutiques ou dans les laboratoires académiques. Une synergie scientifique et technologique permet une recherche rationnelle efficace dans la conception et le développement de nouvelles entités moléculaires grâce notamment à une accumulation exponentielle de données expérimentales, des ordinateurs de plus en plus performants et à de nouveaux logiciels toujours mieux adaptés aux besoins de la recherche appliquée. L’étude de systèmes moléculaires complexes La première simulation d’une protéine (BPTI) remonte à 1977, celle-ci contenait environ 400 atomes et était étudiée isolée pendant 9 picosecondes (1ps=10-12s). Trente trois ans plus tard, une dynamique moléculaire de la même protéine a été simulée pendant 1 milliseconde et comportait plus de 5000 atomes permettant de mieux comprendre la fonction de cette protéine dans un milieu proche du milieu biologique. Il est aujourd’hui possible d’étudier des systèmes moléculaires complexes contenant des millions d’atomes pendant des temps de simulations se rapprochant des phénomènes biologiques réels. En recherche pharmaceutique, ces outils facilitent la compréhension et la prédiction de l’interaction dynamique d’une ou de plusieurs petites molécules (ligand) avec des cibles biologiques. Il est possible d’obtenir, l’interaction d’un ligand dans un site actif d’une protéine, comme avec les méthodes d’ancrage moléculaire (docking), et aussi de comprendre le procédé physique favorisant ce ligand à se lier dynamiquement à ce site. Avec des puissances de calculs encore plus performantes, il serait envisageable d’utili- Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 ser ces outils dans une approche polypharmacologique, d’étudier plusieurs milliers de molécules interagissant avec plusieurs centaines de protéines et ainsi de sélectionner uniquement les meilleurs ligands. Cette approche probablement réalisable dans quelques années offrirait des horizons entièrement nouveaux en favorisant l’identification rapide de nouvelles molécules actives et sélectives et ainsi d’accélérer la phase initiale de recherche de médicaments. Les étapes de recherche pharmaceutique comprennent deux phases successives, une phase initiale de conception de médicament (Early Discovery) suivie par le développement clinique (Clinical Development). Dans l’industrie pharmaceutique, seuls 3% des projets de recherche en moyenne réussissent à délivrer un médicament sur le marché. Parmi les raisons de ces échecs, l’efficacité clinique reste le plus gros obstacle à franchir. Cependant le taux de succès pendant la phase initiale est de 70% grâce aux nouvelles technologies notamment la chémoinformatique, la chimie computationnelle ou les approches de SBDD (Structure-Based Drug Design). La chémoinformatique utilise des moyens informatiques pour résoudre des problèmes relatifs à la chimie. Dans la découverte de nouvelles molécules bioactives, elle est utilisée principalement dans la prédiction de propriétés moléculaires physiques, chimiques ou biologiques et dans la manipulation de grandes bases de données de molécules. Il est possible d’imaginer presque 1 milliard de molécules « drug-like » à partir de 13 atomes lourds (C, N, O, F, S) mais à ce jour 70 millions de molécules de toutes tailles ont été synthétisées. « ...une discipline essentielle à la conception de médicaments... » Il paraît évident que l’espace chimique découvert à ce jour ne couvre pas l’espace thérapeutique disponible. Plus de 11 millions de données biologiques ont été aujourd’hui publiées dans ChEMBL pour un peu plus de 1 million de molécules. Les outils de chémoinformatique facilitent l’identification de composés outils (tool compounds) modulant la fonction d’une protéine afin de mieux dénouer les mécanismes biologiques et les voies de signalisation. En plus de l’identification de nouvelles structures moléculaires, ils permettent de prédire les activités biologiques de nouvelles molécules afin de limiter les effets secondaires rencontrés chez les patients. Quelques succès L’informatique moléculaire est une discipline essentielle à la conception de médicaments et elle participe aujourd’hui systématiquement aux projets de recherche pharmaceutique. Un des premiers médicaments conçus à partir d’une approche SBDD est le zanamivir. Cette molécule interagie avec la protéine Neuraminidase impliquée dans le développement du virus de la grippe. Le losartan est un antagoniste des récepteurs de l’angiotensine II, approuvé pour le traitement de l’hypertension. Il a été conçu à partir des techniques de LBDD. D’autres médicaments comme le zolmitriptan contre la migraine, l’amprenavir contre l’infection par le VIH, le dorzolamide pour le traitement antiglaucomateux ont été conçus à partir de logiciels de modélisation moléculaire. Les différents outils disponibles en informatique moléculaire aident à concevoir et sélectionner les meilleures molécules bioactives pour les valider sur des tests biologiques. Et comme Neils Bohr (1885-1962, prix Nobel de Physique) disait « Prediction is very difficult, especially about the future ». Depuis septembre 2012, la nouvelle équipe de Bioinformatique Structurale et Chémoinformatique de l’ICOA qui développe ses activités autour de l’informatique moléculaire, vient renforcer les groupes de biochimie et de chimie organique et analytique dans la conception de nouvelles molécules à visées thérapeutiques. La stratégie actuelle d’ « Open Innovation » mise en place par les biotechs et les entreprises pharmaceutiques a permis de créer plusieurs collaborations de recherche public-privé dans le domaine de l’informatique moléculaire. Ces opérations « gagnant-gagnant » permettent de travailler ensemble pour accélérer la découverte de nouveaux candidats médicaments. Pascal BONNET < ICOA [email protected] http://www.icoa.fr Superposition de structures cristallographiques de protéines kinases. 29 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 Histoire Histoire Jacob Rueff, De conceptu et generatione hominis, dans Gynaeciorum siue de Mulierum affectibus Commentarii (Tomus I), Basileae, per Conradum Waldkirch, 1586, p. 372. Felix Platter, De mulierum partibus generationi dicatis, dans Gynaeciorum siue de Mulierum affectibus Commentarii (Tomus I), Basileae, per Conradum Waldkirch, 1586, figura II. La santé des femmes à la Renaissance Depuis l’Antiquité, les médecins se sont intéressés à la santé des femmes, comme l’attestent plusieurs ouvrages de la Collection Hippocratique. L’enseignement d’Hippocrate permettra aux médecins de la Renaissance de mieux comprendre la cause des souffrances des femmes. Des ouvrages de référence Le mâle est caractérisé par un corps compact à la manière d’une étoffe serrée, dit Hippocrate dans le traité Des Glandes, alors que le corps de la femme est lâche, spongieux, comme une laine. A l’origine des maladies du corps féminin humide et mou se situe un organe uniquement féminin, l’utérus (matrice), considéré comme la cause des maladies des femmes : « La matrice est la cause de toutes les maladies [des femmes] ; car, de quelque façon qu’elle se déplace hors de sa position naturelle, soit qu’elle vienne en avant, soit qu’elle se retire, elle rend malade » (Hippocrate, Des lieux dans l’homme). 30 Ce sont ces caractéristiques du corps féminin, sa souplesse et la présence de l’utérus, qui incitent le médecin hippocratique à adopter un regard particulier sur la santé des femmes par rapport à celle des hommes et, surtout, le responsabilisent durant la consultation. Si, dit Hippocrate dans Maladies des femmes, d’un côté de nombreuses femmes ne parlent pas par pudeur ou ne reconnaissent pas la source de leurs souffrances, de l’autre côté les médecins commettent la faute de ne pas se renseigner correctement et de traiter la maladie féminine « comme s’il s’agissait d’une maladie masculine ». Peu connu au Moyen Âge, Des maladies des femmes devient entièrement lisible à la Renaissance. Mieux vaut toutefois rappeler que l’intérêt des médecins pour la santé des femmes ne disparaît pas au Moyen Age, connoté par un savoir plutôt galénique, puisque Galien avait traité du corps féminin dans plusieurs œuvres d’anatomie et de physiologie. Un ouvrage comme celui connu sous le nom de Trotula atteste bien des compétences des médecins du Moyen Âge pour les problèmes de stérilité, menstruations, prolapsus de la matrice, ulcères, accouchements. L’utilité du recueil de gynécologie Gynaeciorum libri A partir de la deuxième moitié du XVIe siècle, un groupe de médecins décide de se vouer à la santé des femmes. Le premier pas consiste en la création d’un recueil, connu sous le nom de Gynaeciorum libri, dans lequel le médecin des femmes trouve Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 les textes les plus utiles pour soigner les patientes atteintes d’une maladie féminine ou en situation de grossesse et accouchement difficiles. De fait, à la base du recueil demeure l’idée d’offrir la collection la plus riche possible de textes gynécologiques de l’Antiquité jusqu’à l’époque moderne. Dans cette perspective, le recueil est publié à trois reprises et, à chaque fois, il est enrichi de nouveaux textes. Une stratégie éditoriale précise semble se dessiner : la création d’un savoir caractérisé par des compétences spécifiques, dont l’histoire confirme l’utilité et l’intérêt scientifique. Dans la lettre de dédicace de la première édition des Gynaeciorum libri (Bâle 1566), qui inclut, entre autre, le Trotula, l’éditeur Hans Kaspar Wolf s’interroge sur l’utilité du recueil : pourquoi encore écrire sur les femmes, alors qu’on le fait depuis l’Antiquité ? C’est justement la longue histoire et l’intérêt que suscite la médecine des femmes qui justifie de poursuivre l’œuvre. L’utérus et les maux des femmes L’utérus, continue Wolf, exerce plusieurs fonctions et est à l’origine de maladies extrêmement cruelles, qui bouleversent l’ordre habituel des thérapies. De là vient, d’après Wolf, l’idée hippocratique que l’utérus est la cause des maladies des femmes : « uteros morborum in mulieribus causam existere ». Quand, en 1586-1588, le médecin bâlois Caspar Bauhin réédite les Gynaeciorum libri à Bâle, le recueil s’enrichit de nombreuses œuvres de la Renaissance, telles que le traité sur l’engendrement de Jacob Rueff, la traduction latine du traité sur la génération d’Ambroise Paré et le traité sur les membres du corps des femmes de Felix Platter, avec la réimpression des images anatomiques d’André Vésale. Dans cette édition des Gynaeciorum libri, la pathologie s’accompagne de l’anatomie et de la chirurgie : le traité sur la génération de l’homme d’Ambroise Paré offre un riche éventail de représentations et descriptions des manœuvres et des instruments chirurgicaux nécessaires en cas d’accouchement dystocique (difficile). «...salutaire pour les femmes et convenable à la conservation et à la propagation du genre humain.» Le portrait du médecin des femmes C’est dans l’esprit de sauver la vie des femmes souffrantes que le médecin Israel Spach trace le portrait du médecin des femmes dans la préface de la troisième édition des Gynaeciorum libri, publiée en 1597 à Strasbourg. D’après Spach, les maladies les plus cruelles et difficiles à soigner sont les maladies des femmes : tumeurs, môles, inflammations, cancers. Le médecin doit saisir l’origine de ces maux et connaître les problèmes qui se présentent pendant la grossesse. Des femmes n’arrivent pas à retenir le fœtus dans leur ventre tout le temps nécessaire à sa maturation et doivent l’expulser, en se rendant ainsi odieuses à leur époux. Les douleurs atroces et effrayantes de l’accouchement mettent en danger la vie du bébé et de la femme. Un fœtus mort peut enfin rester trop longtemps dans le ventre de la mère ou la femme être enceinte d’un monstre ; les menstruations peuvent être irrégulières ou la femme stérile. Que les médecins interviennent dans des cas pareils, ce n’est pas seulement utile et glorieux, mais salutaire pour les femmes et convenable à la conservation et à la propagation du genre humain. C’est pour ces raisons que des médecins, continue Spach, ont consacré leur intelligence à l’étude des maladies des femmes. Ces médecins ont suivi la leçon hippocratique, en sachant que l’erreur consiste à ne pas comprendre la cause des souffrances des femmes et à soigner les patientes comme si elles étaient des hommes. Le contexte historique ci-dessus esquissé et les sources décrites dans cet article sollicitent, aujourd’hui encore, le monde scientifique. Le Centre d’Etudes Supérieures de la Renaissance (CESR – UMR 7323 CNRS/ Université François Rabelais de Tours) contribue aux études sur l’histoire de la santé des femmes en s’appuyant sur son patrimoine de livres anciens et sur la présence de chercheurs spécialisés en histoire des sciences. La recherche sur la relation entre les contenus des traités médicaux et les dossiers des patientes permet de mettre en valeur l’émergence de compétences spécifiques et professionnelles dans la gynécologie et l’obstétrique de la Renaissance. Concetta Pennuto < CESR [email protected] http://cesr.univ-tours.fr Moschion, De morbis muliebribus, dans Gynaeciorum hoc est De mulierum tum aliis, tum grauidarum, parientium et puerperarum affectibus et morbis, Basileae, per Thomam Guarinum, 1566, p. 2. 31 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 Histoire Histoire Le Château de Montfort, forteresse datant des croisades au nord d’Israël. © Thinkstock® Aux origines du Pacifisme ? contester la croisade au Moyen Âge Contrairement à ce qu’on pourrait penser, les croisades n’ont pas fait l’unanimité à leur époque. Cette « guerre juste » n’aurait pas suscité le consensus général que l’on s’accordait jusqu’à présent à reconnaître autour d’elle. « Le Christ n’a pas versé son sang pour acquérir Jérusalem, mais les âmes qu’il faut sauver ! » Inattaquable, l’aphorisme appartient à Adam, abbé du monastère cistercien de Perseigne, dans le Perche. Il découle d’une expérience dramatique. En 1202, Adam part avec quelques chevaliers champenois pour la croisade. Or, la plupart d’entre eux y perdent la vie ou la liberté. Revenu au pays, dans le silence du cloître où il prie et des champs qu’il laboure, Adam réfléchit à la disparition inutile de ses compagnons. Jérusalem a été conquise par Saladin en 1187, et depuis les croisés peinent à la reprendre. Leurs défaites à répétition sont la mère de tous les doutes. Elles instillent dans le cœur de bien des Occidentaux l’amertume d’une question lancinante. Dieu veut-il vraiment la croisade ? N’est-elle pas plutôt due à l’orgueil et à la cupidité, à une soif de conquêtes incompatible avec l’enseignement des Évangiles qui conseillent de « tendre la joue droite, si on vous frappe sur la gauche » ? Du sacrifice à l’absolution 32 La croisade est un pèlerinage en armes. Elle engage ses participants dans un combat pour mettre Jérusalem, but ultime de leur voyage, sous domination chrétienne. La ville est sainte. Lieu de la crucifixion de Jésus, elle recèle le Saint-Sépulcre d’où il est ressuscité. Au Mont des Oliviers tout proche, il est monté au ciel lors de son Ascension. C’est là qu’il doit revenir pour la Parousie, son second avènement, et instaurer un millénaire de paix et de prospérité. Cette perspective eschatologique encourage les croisés au départ. Ils souhaitent, en effet, hâter le retour du Christ ou du moins faire pénitence et mourir dans les lieux mêmes où il s’est incarné. Des foules enthousiastes de chevaliers et de fantassins prennent ainsi le chemin de la Terre sainte. Elles combattent l’Islam et elles créent des royaumes latins au Proche-Orient, qui résistent tout au long des XIIe et XIIIe siècles. Leur guerre les sanctifie parce que les multiples sacrifices et privations qu’elle comporte effacent leurs péchés. Les Templiers, des moines soldats Si la croisade jouit d’une large acceptation, il s’est toujours trouvé des esprits forts pour la contester. Contrairement à l’idée reçue, la société médiévale accepte le débat. Ses intellectuels érigent même la scolastique, où tout argument est opposé de façon dialectique à son contraire, en méthode par excellence. Ils soumettent également le Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 Nouveau Testament à une exégèse serrée. Or, le Christ a bien interdit la violence au chef des apôtres, qui voulait pourtant le défendre des gardiens du Temple venus l’arrêter en vue de sa crucifixion : « Pierre, remets ton épée dans le fourreau : celui qui tue par le fer périra par le fer ! », lui avait-il dit. Archidiacre d’Oxford, Gautier Map (†1209) commente cette phrase pour critiquer les Templiers, c’est-à-dire des moines soldats, oxymoron au regard du droit canonique qui interdit de tout temps aux religieux la souillure du sang versé : « À Jérusalem, Pierre a appris à chercher la paix par la voie de la patience ; je ne sais pas qui a appris aux Templiers à repousser la violence par la violence. Ils prennent le fer et ils périssent par le fer […], alors que le Christ refusa de commander des légions d’anges quand Pierre frappa son coup. » Gautier conclut sur le recul face à Saladin des royaumes latins de Terre sainte, même défendus par les ordres militaires. Il remarque, en contrepartie, que « les apôtres avaient gagné Damas, Alexandrie et une grande partie du monde par la parole et non pas par le glaive qui depuis a tout perdu ». Siège de Jérusalem par l’armée de Godefroi de Bouillon. Cliché CNRS-IRHT, Bibliothèques d’Amiens Métropole, Ms 483, f. 54v Un combat pour la conversion Le christianisme ne saurait se répandre que par la prédication. Fondés à la fin du XIIe siècle, les Franciscains et les Dominicains prêchent partout la conversion. Certains d’entre eux apprennent l’arabe pour s’adresser aux musulmans. François d’Assise lui-même rencontre, en 1219, le sultan d’Égypte auquel il propose le baptême. Al-Kâmil l’écoute avec attention et respect. S’il n’est pas convaincu, il demande à François de prier pour lui afin de trouver la vraie foi. Dans le sillage de son fondateur, le franciscain anglais Roger Bacon (12201292) préconise un dialogue sincère avec les musulmans. Il sait qu’ils « conservent dans leur religion beaucoup de paroles des Évangiles » et qu’ils tiennent le Christ pour l’un « des plus grands prophètes, né de la Vierge Marie sans intervention d’homme, mais par le seul souffle du Saint-Esprit ». Sur ces bases, une entente est possible. Mais la croisade risque, selon Bacon, de tout gâcher : « Mener la guerre contre les sarrasins ne sert à rien […]. Les incroyants ne se convertissent pas pour autant. Au contraire, ils sont tués et envoyés en enfer. Les survivants et leurs enfants développent davantage de haine contre la foi chrétienne, dont ils s’éloignent à jamais. Ils sont encore plus déterminés à nuire aux chrétiens. C’est pourquoi, un peu partout, nous avons rendu impossible la conversion des sarrasins. » La condamnation de la croisade est sans appel. amour, toutes les larmes de leurs yeux et tout le sang de leur corps, ainsi que vous l’avez fait par amour envers eux. » Le prêche plutôt que la guerre Autour de 1300, nombreux sont les Franciscains qui préconisent la prédication en terre d’Islam, et s’il le faut le martyre, au détriment de la croisade. Ils ont le vent en poupe. Ce n’est pas du tout désormais le cas des Templiers, dont l’opinion publique ne comprend plus la raison d’être au lendemain de la chute de Saint-Jean d’Acre (1291). Les calomnies que diffuse Philippe le Bel, roi de France, à leur encontre leur valent la dissolution et, pour certains, le bûcher. La croisade n’a jamais fait l’unanimité parmi les chrétiens. Contemporain de Roger Bacon et proche des Franciscains, Raimond Lulle (12321316) préfère, comme lui, la mission aux armes. Il fonde même une école de langues à Majorque, son île natale, où des frères étudient l’arabe. « ...le martyre, au détriment de la croisade. » Il adresse une prière fort pacifiste au Christ : « Seigneur, la Terre sainte ne doit être conquise autrement que de la façon dont vous et vos apôtres l’avez conquise : amour, prières, versement de larmes et effusion de son propre sang. Seigneur, le Saint-Sépulcre et la Terre sainte d’outremer se laissent mieux prendre par la prédication que par la force des armes. Que les saints chevaliers deviennent auparavant religieux, qu’ils se dotent du signe de la croix et qu’ils se laissent remplir de la grâce du Saint-Esprit afin de prêcher la vérité de votre Passion aux infidèles. Qu’ils versent, par votre Martin AURELL < CESCM [email protected] http://cescm.labo.univ-poitiers.fr 33 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 © D’après « La Suisse du Paléolithique à l’aube du Moyen-Age, VI, Le haut Moyen âge, 330 », dessin Benoît Clarys, copyright by Archéologie Suisse. Histoire Histoire Évocation d’une inhumation à l’époque mérovingienne. Les tombes mérovingiennes sont richement dotées d’éléments de parure en verre : perles, éléments de décors de boucles, bijoux en cloisonné Plaque-boucle mérovingienne cloisonnée (cuivre doré et verre) de la nécropole de Saint-Laurent-des-Hommes. (Dordogne, fouille INRAP, Christian Scuiller, Dominique Poulain). Des résultats d’analyse obtenus sur des perles en verre retrouvées dans des tombes d’époque mérovingienne témoignent de l’existence d’un commerce à longue distance entre l’Océan Indien et le Monde Méditerranéen, entre la fin du 5ème et le début du 6ème siècle de notre ère. Ils apportent de nouveaux éléments sur les échanges internationaux et illustrent la précocité de la mondialisation des échanges via les différentes routes de la soie. Les premiers objets en verre ou l’art d’imiter la nature Comme la céramique, la faïence, ou le métal, le verre est un matériau issu des arts du feu. Il a probablement été inventé au cours du 3ème millénaire avant notre ère, mais sa production en grande quantité n’est attestée qu’à partir du milieu du 2nd millénaire avant notre ère, en Mésopotamie et en égypte. 34 Les perles et les éléments de décor sont parmi les premiers objets produits à partir de cette nouvelle matière. Dès le début de son épopée, le verre a servi à remplacer et imiter d’autres matériaux plus rares, plus précieux ou plus difficiles à travailler. En effet, par rapport aux gemmes, au corail ou à l’ambre qui sont seulement taillés ou polis (plus ou moins facilement selon leur dureté), le verre est coloré, moulé, étiré, tourné, mais aussi façonné à volonté. Une palette infinie de polychromies et de formes peut ainsi être obtenue en associant des verres de différentes couleurs. L’ingéniosité des artisans verriers a même permis à ce matériau d’imiter l’or ou l’argent. Ce n’est qu’au cours de l’antiquité que cette matière sera aussi appréciée pour sa transparence et sera utilisée en architecture comme vitrage. Les traditions verrières diffèrent par l’utilisation de recettes et de matières premières différentes, selon les aires de productions et les époques (Proche et Moyen Orient, Asie du Sud et du Sud Est, Monde Méditerranéen… ). L’analyse de la composition du verre permet donc d’identifier sa provenance et ainsi d’étudier son cheminement. «...la perle est aussi un objet magique.» La perle : à la fois élément de parure, symbole protecteur et objet d’échange Objet de parure de forme et d’aspect variés, la perle est aussi un objet magique. En tant qu’amulette, elle protège du mauvais sort ou des aléas des voyages, et guérit même certaines affections. Suivant les peuples et les époques, certaines couleurs sont considérées comme bénéfiques ou néfastes. La perle est aussi utilisée pour confectionner des vêtements ou des ornements spécifiques, insignes de pouvoirs temporels ou magiques, et être ainsi associée à certains rituels. Dès le second millénaire avant notre ère, les perles fabriquées au Proche et Moyen-Orient arrivent en Europe occidentale, où elles servent de monnaie d’échange avec les populations locales, Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013 contre du minerai d’étain et divers autres produits. La plus ancienne épave connue contenant des jarres pleines de perles de verre est un bateau chypriote ou levantin daté du 14ème siècle avant notre ère. Elle a été retrouvée au large de la Turquie (Ulu Burum). Une autre épave, pleine de perles de verre, et datée du 16ème siècle de notre ère, était immergée au large du Sultanat de Brunei. Des cargaisons de perles ont aussi été extraites des épaves des vaisseaux de La Pérouse (La Boussole et l’Astrolabe, 18ème siècle). De tous temps et sur tous les continents, les perles ont donc été utilisées comme cadeaux ou comme objets de troc. Des milliers de petites perles découvertes dans des tombes mérovingiennes Les inhumations ont toujours constitué une source importante de renseignements pour connaître la vie quotidienne des populations. Dans de nombreuses civilisations, le défunt est en effet inhumé avec ses vêtements et un matériel funéraire varié, symboles de son activité et de son statut social. Les tombes mérovingiennes sont à ce titre richement dotées, et sont une source d’enseignement sur les pratiques artisanales et commerciales de ces populations. Les éléments de parure et plus spécialement ceux en verre y sont particulièrement bien représentés : on les retrouve sous forme de perles, d’éléments de décors de boucles de ceinture et de bijoux en cloisonné. Des fouilles récentes de tombes mérovingiennes en Dordogne, Charente, Bretagne, mais aussi en Belgique (Wallonie) ont mis en évidence la présence en très grands nombre de minuscules petites perles en verre étiré (jusqu’à plus de 4000 à Saint-Laurent-desHommes, en Dordogne). La typologie de ces petites perles, le plus souvent monochromes (proches en taille des perles de rocaille) est très différente de celle de la production perlière mérovingienne traditionnelle, plutôt constituée de perles polychromes de taille plus importante. L’analyse, à la fin de l’année 2012, des minuscules perles en verre (1 à 2 mm de diamètre) de la nécropole de SaintLaurent-des-Hommes a révélé bien des surprises. La plupart des objets en verre de l’époque mérovingienne sont en effet soit produits à partir de verre brut provenant du Proche Orient, soit à partir du recyclage de verre antique (lui aussi originaire du ProcheOrient). Mis à part quelques recettes de coloration originales, ils présentent donc la même composition de base que les verres de l’Antiquité. Les petites perles ont une composition totalement différente de celles des verres produits à cette époque dans le monde méditerranéen. Elles sont fabriquées à partir d’un verre riche en alumine, semblable à celui produit durant cette période en Asie du Sud (Inde et Sri Lanka). Leur typologie est elle aussi identique à celles des perles retrouvées par milliers le long des côtes de l’Océan Indien. Ces minuscules perles ne peuvent donc que provenir de cette région. Des produits exotiques acheminés par les routes de la soie Cette provenance lointaine, inédite pour des perles en verre, est en parfait accord avec les résultats obtenus, pour cette époque, par d’autres équipes de recherche sur les gemmes (grenats), les textiles (soie) ou les épices. Les voies commerciales maritimes entre les mondes méditerranéen et indien sont décrites dans de nombreux textes, dont le Périple de la mer Erythrée (manuscrit anonyme du 1er siècle) ou la Topographie chrétienne (Cosmas Indicopleustès, 6ème siècle). Ces perles faisaient donc probablement partie des cargaisons de produits qui arri- vaient d’Orient et d’Extrême Orient via la mer Rouge ou le golfe arabo-persique et les comptoirs commerciaux du Proche-Orient. Les recherches en cours au Centre ErnestBabelon de l’Institut de Recherche sur les Archéomatériaux* ont permis de localiser ce type de perles dans des fouilles anciennes de tombes mérovingiennes situées de la Belgique au Nord de l’Espagne. Toutes ces sépultures sont datées entre la fin du 5ème siècle et le milieu du 6ème siècle. Au cours de la seconde moitié du 6ème siècle, ce type de perle semble disparaître. Il faudra attendre le 7ème siècle pour que d’autres perles asiatiques, d’une typologie très différente, fassent leur apparition en Europe du Nord (Danemark, Suède, Allemagne). Celles-ci arrivent probablement par les voies commerciales qui empruntent les fleuves russes et les routes terrestres de la soie. Là encore, d’autres objets, comme la statue de Bouddha de l’île suédoise d’Helgö (7ème siècle) ou des cauris, témoignent de la persistance de cette mondialisation des échanges. Bernard GRATUZE< IRAMAT [email protected] Constantin Pion < CReA-Patrimoine ULB, Bruxelles James Lankton < Institute of Archaeology UCL, Qatar avec Torben Sode, Conservateur au Danemark et de nombreux archéologues (SRA, INRAP, Archéosphère, Hadès …) *UMR 5060 CNRS, Université tech. Belfort-Montbeliard, Université Bordeaux 3, Université d’Orléans, Ministère de la Culture et de la Communication, CEA, INRAP. 35 Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013 GD 2014 - 20ème conférence internationale sur les décharges électriques et leurs applications 6-11 juillet 2014 Orléans - France Conception graphique : Linda Jeuffrault - CNRS ComDCLPC 2014 Orléans Plus d’info : http://gd2014.sciencesconf.org/ Délégation Centre Limousin Poitou-Charentes www.dr8.cnrs.fr