Microscoop Hors-Série - Octobre 2013

Transcription

Microscoop Hors-Série - Octobre 2013
no e c gl
de «
m ho a
br ix
To Poitou-Charentes
octobre
2013 Un regard sur les laboratoires en d
Centre C
Limousin
e
de ’Ép ha ut
Hors-série
de d
de ve hè os s’é
2013
pe
n
,
s
v
c
Vo ie ir e re o
r
u
,
un ilà nt le qu pre le
fil un tou s c i v na , to
co e q t, hos écu nt ut
nd u to n v i reos n n etm e n tl’u es
uc est eLeusttourbièrens, réseàrvolirs de ne
te io biodiveerssité ’on a
de
fi
ur n t
te n t n
q
t
m
e
n
de EN uv ii rrioenursoune manpqauent du
cNpeasos din’atéirn! e t. s d
fil eda La e c
ogi
o
b i o lm
S
t
,e
B
te
cy
o
h
p
m
c
ly
. riquer ie
Le
pa n
une usine à fab
des anticorps
s c
d’
au
L’
ar idé
on e
d’ du
H dé
ol te
ba Drmossier spécial
ch in
i
MATHématiques
(1 sm
72 e
3- fut
17 ,
89 sem
)
av ble
ec -t
ce -il,
s
m esq
ot ui
s ss
ntre
ation CNRS Ce
zine de la délég
le maga
>
www.dr8.cnrs.fr
u-Charentes
Limousin Poito
α
Chaos, une aventure mathé
C
ha
os
tu C
,u
au é ha
T to de os
ne
m out ur ne (
es ons co des uf c htt
av
qu t d et mm sy ha p:
en
co elq isp a e st pit //w
A
è
r
é
tu
r
ur
fra e ue on té D m es ww
i
e
é
i
e
.
m
b
d n n so l p
re
s d c
lie
n
gr ’un çais co rte e g rod ens dyn e tr hao
m
A
an la e, ur u ra ui io a ei s
l
va
d rg an s d ne tu t e ns mi ze - m
at
it n , q m a
no e c gl e
re
hé
de «
m ho ais pr pré em co ce ues in th.
z
br ix e, ép se en lla fi , ut o
To Poitou-Charentes
m
octobre 2013
Un regard sur les laboratoires en d
Centre C
Limousin
d
r
l
n
t
e
e
’
b
m
a
d
h
e
e s g)
de Ép a ut
at
Hors-série
de e sp ra tat su or
l
c
’
e
o
a
s
h
v
t
h
r
a
e
e
s
i
d
2013
iq
pe ou gn ion on in tio st ffe ac st
e è s ’
s
Vo evie nir se , re éco
u
d
r
t
ue
so -ti ole m de ter n a iff p n. un
un ilà nt , le qu pre ule
t
n
n
,
a
v
u
a
ne res it is so et ec sé pi Il fil
fil un tou s c i v na , to
al , d n
m
l
s
s
.
qu Ce ien ’o sy dep Éti sou lon ’ag m
co e q t, hos écu nt ut
i
n r n u e
e
s
nd u to N V I ReOs N N EtM E N Tl’u es
je pro e, es ops is nne un et d t d’ ath
à rs de ne t
uc est ELesuttourbièrnes, réservoi
n’ jet po et is. jan G e e un ém
te io biodiveressité ’on la
d mo
ou n rtu dé D v h lic la
a
ur n t
t E N T fin es uv
bl ’a ga jà ’a ier ys en th film tiq
pa nt d id em
de E qN uV iI R O NtosNuneE Mmanque
ie ur is , o u 2 e ce éo t ue
intérieur t
s u ée e
cNos
pa ait e n tre 01 t J C ri ou c
pas
e d’airn! e . L de VI e s p nt.
e
e
o
t s 3 o
s
fil Eda a
co si rin »
de pu t né rou tra et s L rea du t pu nst
OGI
B I O Lm
S
t
A
B,
t
c
yte
v
n
è
. e r cie s cl ip in
Le lymphoc
re oi erl ve du ce ey ive ch bli iune usine à fabrique p
m r l an le ct te s.
as nc ista e a ale si
des anticorps
C aos c
er e
i
d
x
C
o
o
fi
d’ e p nc v. s d com
.
j
a
t
ci o
au eu e J. e
er ur ise lm ns s e e e fi mle L
jo t- et -C la me
un sa , a en on st lm
ur ell to . L ph nc
ba ’id
e ns cco ve t e en
d’ e ut ’ê il e
ro ée
fo l’ m rs n
hu no s tr os le
n
is ai p io d’ du
i e us e e op pr
en de ag n
H dé
t
co d’ né
ai me est hie em
ol te
q
re un
ue der ut ét d’ ier
spécial
rm
ba Dossier
.
e
H
l’o à san rn é ch
ch in
e
a
r
i
p
MATHÉMATIQUES
n
ré s c lle ac pit
(1 sm
p
m
d
e
eu ir ss e li re
72 e
t e e nt te
3- fut
vo l’a :
17 ,
ir ve to en
89 sem
co ni ut
)
av ble
m r?
ec -t
m
e
ce -il,
s
m esq
ot ui
s ssé
:
e
po
1
ur
la
pr
em
iè
re
fo
is
pa
r
octobre 2013
Hors-série 2013
le magazine de
la délégation CNRS
Centre Limousin
Poitou-Charentes
α
> 4
> 6
Agenda
thématique
Congrés annuel du groupe on
sati
recherche sur la vectori
en Afrique
L’Organisation pour l’Ha
de son
ans
20
les
bre
du Droit des Affaires célè
colloque international,
n
d’u
lors
eur
dat
fon
traité
en présence de Juriscope.
8 au 17 octobre 2013 <
Burkina Faso
2 au
eur
Rassemblement des act
lles confondues autour
Grand Ouest toutes tute
tive à la santé humaine.
rela
es
des problématiqu
- GDR VERRES
Journées plénières USTV
e,
des mondes académiqu
Réunion des acteurs
problématiques du
les
sur
ue
stiq
arti
et
industriel
verre.
3 déc. 2013 > Nantes
Manifestations
www.unilim.fr/spcts
pe
38èmes journées du Groumétrie et
idi
um
d’H
e
on
ph
Franco
Poreux
Transferts en Milieux
tériaux.
itiers
18 au 21 nov. 2013 > Po
r
mp.labo.univ-poitiers.f
http://ic2
6ème RIPT
ales Projection
Rencontres internation
Thermique
13 déc. 2013 > Limoges
www.unilim.fr/ript
CFA 2014
12ème Congrès Français
erm.fr
www.rencontres-go-ins
oges,
14 au 15 nov. 2013 > Lim amique
Cér
la
de
n
pée
ro
Centre Eu
aux géoma
4 déc. 2013 > Orléans
recherche
2èmes Rencontres de la d Ouest
an
Gr
en santé dans le s de la recherche du
www.juriscope.org
des sols
Les matériaux argileux,
de
www.gtrv.fr
Ouagadougou
Les fondamentales,
aux nouvelles frontières
ié
Le forum du CNRS déd
conférences, débats).
de la science (échanges,
ris,
14 et 16 nov. 2013 > Pae sur inscription
libr
rée
ent
,
ne
on
rb
la So
entales
www.cnrs.fr/lesfondam
23èmes rencontres
s»
« Sciences et Citoyen
exion, d’échange
réfl
Rendez-vous annuel de
nes et chercheurs.
et de dialogue entre jeu
itiers
18 au 21 nov. 2013 > Po
citoyens
www.cnrs.fr/scienceset
d’Acoustique
itiers
22 au 25 avril 2014 > Po
nce.univ-poitiers.fr
http://cfa2014.confere
CNRS Centre Limousin Poitou-Charentes
3E, Avenue de la Recherche Scientifique
45071 ORLÉANS CEDEX 2
Tél. : 02 38 25 52 01 - Fax : 02 38 69 70 31
www.dr8.cnrs.fr
E-mail : [email protected]
ISSN 1247-844X
Directeur de la publication
Patrice Soullie
Responsable de la publication
Patricia Madrières
Secrétaire de la publication
Florence Royer
Création graphique
Linda Jeuffrault
> 10
Les tourbières, réservoirs de biodiversité > 4
Nos intérieurs ne manquent pas d’air > 6
Tension ! Explosion ? > 8
Mission en Antarctique > 10
Gtrv 2013
L’OHADA à 20 ans rmonisation
Environnement
www.dr8.cnrs.fr
Colloques
> 26
Aurélien Alvarez
> 3 0
> 34
>
11 au
> 12
> 8
Mathématiques
Quand les volcans coincent la bulle > 12
éviter que les petits ruisseaux ne
deviennent de grandes rivières > 13
Statistiques et énergies renouvelables > 14
Le climat et ses aléas > 15
L’imagerie mathématique au secours des
monuments dégradés > 16
Penser global, agir local... > 17
De l’équation à la guérison > 21
Biologie
Le lymphocyte B, une usine à fabriquer
des anticorps > 24
Un moteur « six cylindres » sous le capot
d’un bolide microbien > 26
Chimie
L’informatique moléculaire,
dans la course aux nouvelles molécules
thérapeutiques > 28
Histoire
La santé des femmes à la Renaissance > 30
Aux origines du Pacifisme ? Contester la
croisade au Moyen Âge > 32
Les perles en verre, de grandes
voyageuses de petite taille > 34
Ont participé à ce numéro : Martin Aurell, Nicolas Azzopardi, Guy Barles, Nils Berglund,
Maïtine Bergougnioux, Pascal Bonnet, Marc Boudvillain, Jérôme Casas, Gilles Chalumeau,
Stéphane Chevrier, Véronique Daële, Mouna El Mekki, Richard Emilion, Bernard Gratuze,
Philippe Grillot, Frédéric Lagarde, James Lankton, Anne Laurent, Olivier Lourdais, Carine
Lucas, Sten Madec, Simona Mancini, Marie-Laure Masquillier, Anne Mychak, Elisabeth
Nau, Gilles Paintaud, Concetta Pennuto, Constantin Pion, Claire Ramboz, Laurent Robin,
Pauline rouaud, Alexis Saintamand, Frédéric Savoie, Christelle Suppo, David Ternant.
Imprimeur - PREVOST OFFSET - Impression sur papier 100 % recyclé Cycloprint.
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
Chaos> (http://www.chaos-math.org)
est un film
28
32
tué de neuf chapitres de treize>minutes
chacun. Il s’ag
autour des systèmes dynamiques, de l’effet papillon et
> 24
Tout comme Dimensions, ce film est diffusé sous une
mons et a été produit en collaboration avec Étienne Gh
Vive les mathématiques !
est disponible gratuitement sur internet depuis janvier
ou vivre les mathématiques !
quelque sorte une présentation de son synopsis. D’autr
Elles sont partout, elles nous côtoient et pourtant nous Comme chaque année, le mois d’octobre est marqué
core
en cours
préparation
mais,
et déjà, on t
la Fête
de la Science. Il s’agit d’un
moment d’ores
privilén’y prêtons guère attention. Elles
nous simplifient
la parde
vie alors que dans notre prime jeunesse, elles nous ont gié, où personnels des laboratoires et grand public se
française,
anglaise,
espagnole,
italienne,
parfois mené la vie dure. Heureusement,
certains les
rencontrent et
échangent sur la Science
et les travaux portugaise et né
aiment, les défendent, illustrent leur utilité et surtout qui constituent l’actualité de la recherche. Ces jourd’un large choix
de sous-titres. Ce projet n’aurait pu voi
nées sont devenues un rendez-vous incontournable
nous apprennent à les comprendre et les apprécier.
ses acteurs
et ses visiteurs.que je n’oublie pas de reme
grand nombrepourde
personnes
Les mathématiques sous leurs multiples formes sont
inextricablement liées à l’histoire des civilisations,
elles régissent notre présent et le futur ne peut se
conquérir sans elles.
Je tiens à remercier l’ensemble des personnels des
laboratoires de notre circonscription Centre Limousin
Poitou-Charentes pour leur investissement dans
l’organisation de cet évènement et ne doute pas que
cette 22è édition, grâce à leur contribution, rencontrera
le même succès auprès du public que lors des éditions
e
précédentes.
« Tout s’écoule, tout est mouvement. » Ainsi comm
C’est donc tout naturellementde
que ce
numéro hors- reprenant l’une des idées principales de la ph
Chaos,
série de Microscoop consacre son dossier spécial
d’Éphèse
aux Mathématiques et s’associe
ainsi à l’année 2013qui vécut à la fin du VI siècle av. J.-C. L’ê
« Mathématiques de la planète Terre », opération parSOULLIE
devenir, les choses n’ont pas dePatrice
consistance
et tout se
rainée par l’UNESCO.
Délégué régional
devient tout, tout est tout. La Science peut-elle nous a
Voilà une question qui ne date pas d’aujourd’hui et qu
un fil conducteur de ce film.
d o ss i e r > 1 2 - 2 1
Spécial MATHéMATIQUES
Environnement
Environnement
Les tourbières,
réservoirs de biodiversité
Une grande valeur patrimoniale
De façon inattendue, des sites de faible
superficie ou présentant des états de dégradation avancés sont cependant favorables
à des espèces rares. La définition de la
valeur patrimoniale de ces sites sur la base
d’espèces végétales ou animales mieux
connues aurait pourtant conduit à leur éviction de la liste de sites régionaux présentant un intérêt conservatoire. L’intégration
d’une plus grande diversité de taxons dans
la définition de la valeur patrimoniale des
sites paraît donc nécessaire pour éviter
des erreurs d’évaluation lourdes de
conséquences.
Avec 256 espèces d’araignées et 101 espèces
de carabes recensées, les tourbières constituent de véritables réservoirs de biodiversité. Ainsi, de nombreuses espèces considérées comme rares sur le plan national, sont
parfois abondantes dans les sites étudiés
et certaines sont spécifiquement associées
Des facteurs locaux (surface et
qualité de la tourbière) mais aussi
régionaux (structure du paysage,
morcèlement
des
habitats,
barrières forestières autour des
sites) conditionnent la qualité des
«...de véritables reliques
glaciaires.»
Entretenir et restaurer les sites
La qualité des milieux tourbeux est un des
facteurs déterminant des communautés
qu’ils hébergent. Cette qualité des sites
est en étroite relation avec la dynamique
naturelle de la végétation et avec les activités humaines. La restauration par pâturage
permet de réactiver de façon remarquable
ces espaces instables. Il s’avère également
que la structure du paysage est importante
et que les plantations forestières peuvent
constituer des barrières pour certaines
espèces.
Enfin, ces travaux suggèrent que la gestion
des milieux patrimoniaux doit intégrer, non
seulement la restauration des groupements
végétaux qui les définissent, mais aussi la
structure de la végétation pour offrir une
Olivier LOURDAIS < CEBC
[email protected]
Frédéric Lagarde < Le champ des
possibles
[email protected]
http://www.cebc.cnrs.fr
* Ce travail a été soutenu financièrement par le
“Programme opérationnel plurirégional Loire FEDER”
(# PRESAGE 30810), l’établissement Public Loire & le
Parc Naturel Régional de Millevaches en Limousin.
Piloté par le CEBC et l’Association Le champ des
Possibles, ce programme a été mené en collaboration
avec le laboratoire Environnement, Ville, Sociétés
(UMR 5600) et le Parc Naturel Régional de Millevaches
en Limousin.
Un inventaire détaillé a été remis aux gestionnaires régionaux. Il présente l’écologie
et les statuts des principales espèces inventoriées ainsi qu’un diagnostic de la qualité
de chacun des sites étudiés. Les chercheurs ont proposé que plusieurs espèces soient
intégrées dans une liste rouge régionale des espèces menacées et entrent dans la Stratégie de Création des Aires Protégées du Limousin. Elles ont toutes été retenues pour la
liste rouge régionale qui nourrit elle-même la liste rouge au niveau national.
Plus de 23000 araignées et 10000 carabes ont été capturés et identifiés au niveau spécifique afin
de caractériser les communautés des tourbières limousines et de comprendre les relations entre
les conditions de l’environnement à différentes échelles spatiales et la structure des communautés.
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
diversité de microhabitats et microclimats.
Le maintien ou l’augmentation de l’hétérogénéité structurale de la végétation dans les
sites gérés devrait être bénéfique à une large
gamme d’espèces et aussi offrir des zones «
tampons » face aux aléas climatiques. Cela
nécessite une diversification des modes
de gestions appliqués à la restauration des
landes et tourbières.
5
LO
UR
DAI
S
4
Dans le cadre du Plan Loire Grandeur
Nature*, le CEBC avec ses partenaires, ont
étudié les reptiles et arthropodes des landes
et tourbières situées en tête de bassin. L’objectif principal du projet était de décrire et
comprendre la structure des communautés
et de replacer les résultats obtenus dans le
contexte de la gestion et de la restauration
des milieux. Le programme s’est articulé
autour de 3 axes :
- Réaliser un inventaire quantitatif et spatialisé des communautés d’araignées et de
carabes dans les sites tourbeux du Limousin
aux tourbières et zones humides. Les tourbières du Limousin apparaissent comme
des refuges stratégiques pour un cortège
d’espèces rares, dont certaines peuvent
être considérées comme de véritables
reliques glaciaires.
iv i
er
Le recensement de 350 espèces
(Plateau de Millevaches)
- Déterminer l’influence des caractéristiques de l’environnement sur la structure
de ces communautés, et cela à différentes
échelles spatiales
- Déduire des recommandations et des
pistes de gestion et de conservation des
sites tourbeux en Limousin
Les araignées et carabes de 30 sites tourbeux (zone d’étude de 30 km sur 45 km) ont
fait l’objet d’analyses selon trois échelles
spatiales imbriquées: le point de capture,
le site, le paysage environnant. Des sessions
d’échantillonnages spécifiques ont permis
de mieux cerner les exigences écologiques
des quelques 350 espèces.
Ol
Les landes et les tourbières sont des milieux
en forte régression à l’échelle Européenne
et de nombreuses actions de gestions et de
restauration sont entreprises. Cependant,
elles prennent rarement en considération
les ectothermes (vertébrés et invertébrés)
que ce soit pour les phases de diagnostics
écologiques ou pour le suivi de l’impact des
modes de gestion sur ces milieux. Pourtant,
ces organismes présentent une grande
sensibilité aux conditions climatiques et à la
structure de l’habitat et de faibles possibilités de déplacement. Les invertébrés constituent la plus grande partie de la biodiversité et peuvent apporter des informations
essentielles sur l’état de ces milieux.
La gestion de ces milieux naturels remarquables doit passer à la fois par la restauration des sites (pâturage notamment) et
par le contrôle de l’occupation de l’espace à
l’échelle du paysage alentour. La restauration
des relations écologiques et fonctionnelles
entre les différents sites tourbeux semble
essentielle pour la dynamique des communautés qu’ils hébergent. A l’heure actuelle,
les mesures de gestions et de conservation
de ces habitats visent principalement la
réhabilitation des sites et prennent peu en
compte la gestion des paysages. Les résultats obtenus montrent la nécessité de développer une approche « globale » intégrant
la politique d’occupation de l’espace de la
région étudiée. En particulier, une matrice
forestière dense et continue (plantations de
résineux) autour de certains sites pose un
problème pour les espèces spécialistes.
BC
Le haut bassin de la Loire présente une forte spécificité écologique avec une grande diversité de landes et
de tourbières. La réduction drastique de leur surface et leur forte fragmentation constituent une menace
pour la biodiversité de ces milieux.
De telles contraintes affectent les échanges
populationnels et augmentent les risques
d’extinctions locales en empêchant la
libre migration et la colonisation des sites
vacants.
< CE
Dolomedes fimbriatus, une pisauridae caractéristique des zones humides.
communautés d’arthropodes et la persistance d’espèces reliques. Ainsi, plus une
tourbière est « active » et plus la proportion d’espèces spécialistes est importante.
La composition des communautés est aussi
dépendante du paysage et de la surface
forestière en périphérie des sites étudiés.
Plus les tourbières sont morcelées et plongées dans une matrice forestière (plantations de résineux essentiellement), moins
les communautés d’arthropodes sont riches
en espèces spécialistes.
©
© Olivier LOURDAIS < CEBC
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
Environnement
Environnement
© Ministère de l’écologie, du développement durable et de l’énergie.
IC
AR
EC
NR
S
© Véronique DAËLE < ICARE CNRS
Nos intérieurs
ne manquent pas d’air !
L’union européenne a fait de 2013 l’année de l’air. La pollution atmosphérique est en effet un problème
d’environnement majeur impactant directement notre qualité de vie. C’est particulièrement le cas avec la
qualité de l’air intérieur.
Des études menées ces dernières années,
ont montré que dans des bâtiments confinés, les concentrations des polluants
primaires pouvaient être largement supérieures à celles enregistrées à l’extérieur.
Cette problématique prend encore plus
d’importance en considérant le rapport
espace-temps puisque nous passons 80 à 90
% de notre temps dans des environnements
clos (logements, lieux de travail, écoles,
commerces, etc). La qualité de l’air intérieur
s’impose ainsi comme une préoccupation
sanitaire majeure pour les populations et
pour les pouvoirs publics.
Des origines et des conséquences
multiples
6
Les sources de pollution intérieure sont
très diverses, en nature et en intensité :
les matériaux de construction, les peintures, les colles, les moquettes, les isolants,
l’ameublement, les produits ménagers, les
désodorisants (bougies parfumées, encens,
parfums d’intérieur), les cosmétiques,
les appareils à combustion (chaudières,
chauffe-eau), les biocontaminants (acariens,
animaux domestiques, moisissures, …). La
présence et l’émission de ces polluants sont
aussi fortement influencées par le mode
de vie des occupants (ex. tabagisme), la
température et l’humidité ambiantes ainsi
que par le taux de renouvellement d’air
(VMC, ouverture des fenêtres, …).
Les effets sur la santé sont variables selon les
individus, la durée d’exposition, la concentration et le type de polluant. Ils vont du
simple inconfort ou gêne olfactive, aux irritations (respiratoires, de la peau, des yeux,
du système digestif), aux maux de têtes, aux
allergies et asthmes, jusqu’au cancer pour
des expositions élevées (souvent professionnelles).
Une règlementation en cours
Quels sont ces polluants d’origine chimiques
que nous rencontrons dans l’air intérieur ?
On les appelle les composés organiques
volatils (COV). Comme leur nom l’indique,
ils sont volatils et se propagent donc ainsi
aisément en contaminant l’air des espaces
clos. Certains d’entre eux sont d’ores et déjà
réglementés comme le formaldéhyde et le
benzène.
« Des solutions simples
peuvent être adoptées...»
Dans ce contexte, la France a mis en place
différents moyens :
- la création en 2001 de l’Observatoire de la
Qualité de l’Air Intérieur (OQAI),
-
l’établissement de Valeurs Guides de
qualité d’Air Intérieur (VGAI) par l’ANSES
(Agence nationale de la sécurité sanitaire
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
de l’alimentation de l’environnement et du
travail) basées sur des critères sanitaires,
-la mise en œuvre d’actions dans le Plan
National Santé Environnement (PNSE I et II)
et de lois dans les Grenelle l’environnement.
Dans le 2ème PNSE (2009-2013), une des
mesures phares vise à « mettre en place
un étiquetage sanitaire des produits de
construction, de décoration ainsi que des
produits les plus émetteurs de substances
dans l’air intérieur des bâtiments, et rendre
obligatoire l’utilisation des produits et
matériaux les moins émissifs dans les écoles
et crèches ». De même, conformément à la
loi Grenelle 2, la surveillance de la qualité
de l’air dans les Etablissements Recevant
du Public (ERP), tels que les établissements
scolaires, va être progressivement rendue
obligatoire de 2015 à 2023.
Des solutions simples peuvent être adoptées en réduisant au maximum la pollution
à la source en faisant le choix de produits
à faibles émissions et en ayant une bonne
stratégie d’aération (en fonction du bâtiment et de l’environnement extérieur). De
nombreuses questions restent aujourd’hui
encore posées dans un contexte de grandes
diversités de polluants et de sources, de
multiples espaces clos et en tenant compte
©
sation de ces sources secondaires de HCHO
dont la quantification est donc un élément
important à prendre en considération pour
la réglementation concernant sa réduction.
de l’évolution des techniques de construction visant une meilleure performance énergétique des bâtiments (cf. constructions BBC,
Bâtiment Basse Consommation).
Le projet Formul’air
Le formaldéhyde (HCHO) est l’un des
polluants les plus importants et significatifs
« des atmosphères » intérieures. Les taux
d’exposition en milieu domestique, même
s’ils sont plus faibles qu’en milieu professionnel, ont un effet sur la santé respiratoire, comme de nombreux polluants.
Le formaldéhyde est classé depuis 2004
comme produit cancérogène pour l’homme.
Le Haut Conseil de la Santé Publique a introduit une valeur cible (10 µg/m3) à atteindre
en 2023 (30 µg/m3 en 2015) dans les ERP.
Il est émis directement par des surfaces,
source primaire, ou produit lors de la
dégradation chimique d’autres composés
organiques volatils présents dans le milieu
(solvants, produits de nettoyage, également les surfaces), source secondaire. Cette
deuxième source pourrait être dominante
dans certaines situations où les concentrations en COV insaturés sont non négligeables comme l’indique les études des
processus chimiques dans les conditions
atmosphériques. Or, à ce jour, il n’existe
que très peu de données sur la caractéri-
En effet, la réglementation imposant une
baisse importante de la concentration en
formaldéhyde, ce dernier commence à
être supprimé des processus de fabrication
(source primaire). Mais, on peut se demander comment on pourra respecter la valeur
cible réglementaire de 10 µg/m3 si elle est
déjà atteinte à partir des sources secondaires.
C’est l’objectif de Formul’air (FORmaldéhyde et siMUlations dans l’AIR : détermination des sources secondaires de formaldéhyde), le programme de recherche financé
par la Région Centre et piloté à l’Institut
de Combustion Aérothermique Réactivité
et Environnement (ICARE – UPR 3021), en
partenariat avec Lig’Air (réseau de surveillance de la qualité de l’air en Région Centre).
scolaires de la Région Centre : une école
élémentaire, un lycée et des bâtiments
universitaires. Les résultats pourront être
directement intégrés dans les différents
plans et programmes nationaux et régionaux (PNSE, PRSE, …) afin de suggérer et
mettre en place les mesures coercitives
pour réduire les niveaux de formaldéhyde
en air intérieur et satisfaire ainsi la valeur
cible à l’horizon de 2023.
L’identification des processus et déterminants qui conditionnent la formation secondaire de HCHO en air intérieur, peut être
également valorisée auprès des industriels
dans le but de réduire, voire d’éliminer, les
COVs responsables de cette formation, dans
leurs procédés de fabrication.
Véronique DAËLE < ICARE
[email protected]
http://www.icare.cnrs-orleans.fr
Il permettra de caractériser les sources
secondaires du formaldéhyde de l’air intérieur en combinant, des mesures de terrain,
des expériences en laboratoire (à l’aide de
la grande chambre atmosphérique HELIOS)
et de la modélisation. Les lieux ciblés pour
les études de terrain sont des salles de
classe ou de cours dans des établissements
7
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
Environnement
Environnement
© Laurent PERDEREAU < ISTO
Nucléation de vapeur au sein d’eau liquide métastable piégée dans un cristal de quartz.
Images prises sur enregistrements video numériques.
4 secondes séparent la 1ère image et la 7ème.
expliquent pourquoi 1000 m3 d’eau liquide
métastable peuvent libérer en une milliseconde autant d’énergie qu’un séisme de
magnitude 5.
Une théorie pour prédire l’explosivité
© Thinkstock®
Tension ! explosion ?
Au XXIè siècle, les fondements scientifiques qui se cachent derrière le comportement de l’eau restent mal
compris, voire ignorés non seulement du grand public mais aussi d’une partie de la communauté scientifique qui la manipule quotidiennement.
L’eau est une substance des plus banales et
constitue en même temps un matériau des
plus extraordinaires. C’est la seconde molécule la plus abondante dans l’Univers, un
composé essentiel des étoiles à l’état solide.
A l’état liquide, elle demeure indispensable
au développement des espèces vivantes
et sa présence est le critère premier qui
oriente les recherches de vie extraterrestre.
Au XXIè siècle, les fondements scientifiques
qui se cachent derrière le comportement de
l’eau restent mal compris, voire ignorés non
seulement du grand public mais aussi d’une
partie de la communauté scientifique qui la
manipule quotidiennement.
8
Les recherches sur la physique de l’eau
offrent de surprenants contrastes. D’un
côté, une association internationale met
à disposition des scientifiques et des ingénieurs sur calculateur de poche les propriétés de l’eau dans tous ses états jusqu’à
1000°C et 10 000 bar. De l’autre, il persiste
des domaines de recherche sur l’eau très
spécialisés dans lesquels un petit nombre
de chercheurs échangent et s’affrontent
au niveau mondial : tel est le domaine
confidentiel de la physique de l’eau liquide
métastable.
Une frontière de la Science
depuis… 1662 !
C’est Huygens qui communiqua en 1662
à la Royal Society de Londres la première
observation référencée d’eau sous tension.
Il avait obtenu des colonnes suspendues de
mercure ou d’eau dans des tubes en verre,
ce qui impliquait que ces liquides existent à
pression négative. Cependant, cette expérience ne put être interprétée à l’époque car
le baromètre venait à peine d’être inventé
20 ans plus tôt et le concept de tension de
vapeur ne l’était pas encore. Ce n’est qu’en
1850 que Berthelot mesura une pression de
-50 bar dans de l’eau en tubes scellés chauffée jusqu’à 28°C puis refroidie.
Dans ces mêmes années, les minéralogistes
découvraient de leur côté, grâce au microscope, que les minéraux des roches piègent
de nombreux fluides en micro-inclusions
(essentiellement de l’eau mais aussi du gaz
carbonique sous pression…). Quand Brewer
invente vers 1850 un prototype de platine
pour chauffer à volume constant l’eau
piégée dans les lacunes intracristallines, il
ignore qu’elles sont des analogues de taille
inframillimétrique des tubes de Berthelot
et qu’en conséquence, elles sont des objets
privilégiés pour observer facilement et
de façon répétitive, l’eau tensile. Il faudra
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
attendre Zheng (1991) pour que des pressions de – 1400 bar soient mesurées sur des
inclusions d’eau pure. Celles-ci détiennent
encore à ce jour le record des pressions
négatives mesurées sur l’eau liquide en
laboratoire (-1800 bar).
Comprendre pour maîtriser
A l’ère industrielle, l’homme n’a cessé de
diversifier ses activités techniques, d’explorer de nouveaux espaces de la planète.
Il découvre alors que l’eau tensile est
partout, y compris dans le milieu naturel.
Elle provoque des explosions lors du laminage des aciers, elle détruit les hélices de
bateaux, elle est responsable des accidents de décompression lors des plongées.
Comprendre l’eau métastable est un défi
aux multiples enjeux, technologiques et
biologiques.
L’eau tensile
explosive
particulièrement
Tout liquide métastable a une durée de
vie limitée. La nucléation de vapeur dans
ce liquide est inéluctable et sera d’autant
plus explosive qu’elle libèrera une énergie
plus grande en un temps plus court. Or,
l’eau liquide a une énergie de vaporisation
élevée et, on l’a vu, la capacité de résister
à des tractions extrêmes. Ces propriétés
A partir des années 1920, la Théorie Cinétique de la Nucleation (CNT) a été élaborée pour prédire de façon quantitative la
nucléation homogène de vapeur au sein
des liquides métastables. Cette théorie a
été validée expérimentalement pour de
nombreux liquides, mais elle n’avait pu
être vérifiée pour l’eau tensile au-delà de
-300 bar, faute de données expérimentales
adéquates.
« ...savoir anticiper le
comportement de l’eau
saturée en gaz... »
Utilisant des microvolumes d’eau liquide
piégée dans du quartz, des géologues de
l’Institut des Sciences de la Terre d’Orléans (ISTO – UMR 7327 CNRS/Université
d’Orléans, BRGM), un statisticien du Groupement de Recherche Eau, Sol, Environnement (GRESE – EA 4330, Université de
Limoges) et des physiciens spécialistes de
l’eau tensile du Laboratoire de la Matière
Condensée et Nanostructures (LPMCN
aujourd’hui Institut Lumière Matière – UMR
5306 UCB Lyon 1 / CNRS) ont collaboré pour
explorer le domaine de l’eau tensile entre
-175 et -1400 bar. En interprétant leurs
mesures de durée de vie de l’eau métastable avec la CNT, ils ont montré que la
nucléation de vapeur dans de l’eau tensile
est un processus homogène : elle s’effectue au sein du liquide par sa désintégration
à l’échelle d’une centaine de molécules et
non à cause de l’effet des parois ou de la
présence d’impuretés. Environ 1013 de ces
nanogermes d’eau vapeur se forment par
m3 et par seconde au sein du liquide métastable lors de la rupture. Le fait que l’eau
tensile en micro-inclusions se fracture pour
un taux de nucléation constant, implique
que le comportement de l’eau liquide dans
des pores de volume compris entre 0,1 et
0,001mm3 est quasi spinodal dans le vaste
domaine PT métastable exploré.
En perspective, le stockage de CO2
Limiter les émissions atmosphériques de
CO2, principal gaz à effet de serre, est une
nécessité si l’on veut freiner le réchauffement de la planète. Le stockage géologique
est un des moyens envisagés pour atteindre
cet objectif. Les aquifères souterrains sont
identifiés comme les sites les plus fiables
où piéger ce gaz industriel. En préalable au
stockage, il convient cependant de savoir
anticiper le comportement de l’eau saturée
en gaz si des changements, même transitoires, se produisent dans les paramètres
physiques du réservoir profond. Un minéral contenant de multiples lacunes de taille
micronique remplies d’eau constitue un bon
analogue pour étudier le comportement de
l’eau stockée dans les réservoirs rocheux.
En améliorant la compréhension du
comportement métastable de l’eau piégée,
en permettant de modéliser quantitativement ce comportement, les chercheurs
d’Orléans, de Limoges et de Lyon ont franchi
une étape majeure vers la sécurisation des
sites de stockage, en améliorant les critères
de choix de ces sites. Il reste maintenant à
étendre la méthodologie qu’ils ont développée à l’étude de l’eau saturée en gaz. En
effet, les gaz dissouts dans l’eau sont appelés à jouer un rôle croissant dans les sociétés
post-industrielles de ce début de XXIè siècle,
que ce soit dans l’environnement comme on
l’a vu ou dans le domaine de l’énergie, avec
la montée en puissance de l’hydrogène. Le
comportement métastable des solutions n’a
pas fini de préoccuper les scientifiques !
Claire Ramboz < iSTO
[email protected]
Mouna El Mekki < Institut lumière
matière
[email protected]
www.isto.cnrs-orleans.fr
9
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
Environnement
Environnement
Quelques valeurs de Concordia
© Gilles CHALUMEAU < LPC2E
Latitude: 75°06’01’’ Sud
Longitude: 123°19’27’’ Est
Altitude: 3233m
Décalage horaire: Tu+8 heures
Distance à la côte: 1150 km
Distance au pôle: 1650 km
Pression: 630 hPa, comme dans les Alpes à 3800 mètres
Température: de -25°C à -40°C en été
de -50°C à -84°C en hiver
Vapeur d’eau: 1000 à 2000 fois moins qu’en Europe
Personnel : jusqu’à 80 personnes en campagne d’été et
une petite quinzaine durant l’hivernage.
Mission
en Antarctique
Trois mécaniciens du Laboratoire de Physique et de Chimie de l’Environnement et de l’Espace (LPC2E CNRS/
Université d’Orléans) sont partis trois mois au bout du monde. Leur mission : installer les antennes du radar
ionosphérique SuperDARN.
Avant l’Antarctique et la Base Concordia, il y
a eu… Orléans. Entre octobre 2005 et mars
2010, le prototype d’antennes radar a été
développé sur le campus CNRS dans des
conditions climatiques et environnementales que l’on qualifiera de « normales ».
Cette phase de conception et de test
avait pour objectif de valider le modèle
de montage, d’installation et d’érection
des antennes avec le matériel disponible
à Concordia. Les équipes techniques et
scientifiques de l’époque s’étaient fixé
quelques contraintes : minimiser le nombre
de pièces à assembler, optimiser et tester
les procédures de montage (manipulation
avec gants), minimiser les efforts physiques
compte tenu des conditions extrêmes,
choisir des matériaux résistants à cet environnement et enfin transporter l’ensemble
en containers.
Tout matériel lourd destiné à Concordia
transite par bateau, l’Astrolabe, depuis
le port de Hobart en Tasmanie jusqu’à la
station française Dumont D’Urville (DDU)
en Terre Adélie. 5 à 6 jours au minimum
suffisent, lorsque la météo est clémente et
uniquement d’octobre à janvier. Ensuite le
matériel est acheminé par le « Raid », un
convoi de tracteurs à chenilles, jusqu’au
Dôme C. Dans les meilleures conditions
possibles, une dizaine de jours sont nécessaires.
2E
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
antennes soit un chemin de câbles d’environ 600 mètres parcourant les deux réseaux
et faisant la liaison entre eux. A raison d’un
pieux en bois tous les 3 mètres, ce 200 pieux
qui ont été fiché dans « le sol ».
« ...2 jours de canicule
sans vent à -18°C... »
Au tout début de la campagne, fin
novembre, la température était plus
souvent aux alentours de -45°C/ -50°C avec
un vent de quelques mètres par seconde. La
température ressentie avoisinait les -60°C.
Combiné avec la faible pression, tout effort
physique devait être mesuré et réfléchi pour
éviter l’essoufflement, la perte de force
musculaire. Heureusement, mi-décembre
2 jours de canicule sans vent à -18°C ont
réjoui « les habitants » de la base. A ces
conditions exceptionnelles, un autre phénomène est déroutant pour ceux habitués aux
Convection ionosphérique
LPC
…pour une super mission
Du 15 novembre 2012 au 7 février 2013,
six personnes se sont démenées pour le
La première chose que l’on ressent en arrivant à Concordia, c’est un
essoufflement.
U<
MEA
Mais le délai d’acheminement total est
beaucoup plus long, de l’ordre de 12 à 18
mois. En effet la base de DDU est installée
sur l’île des Pétrels, à 5 km du continent.
Elle est accessible par bateau uniquement
durant l’été austral, à la fonte des glaces. Il
faut attendre l’hiver, que la banquise se soit
reformée, pour transborder le matériel de
l’île sur le continent avec des traineaux.
Là, il faut patienter de nouveau jusqu’à
l’été austral suivant pour charger le Raid
et atteindre la base de Concordia. Toute
cette logistique tant pour le matériel
que le personnel est assurée par l’Institut Paul Emile Victor, institut pour la
recherche en territoires polaires.
montage et le démarrage de ce radar : trois
mécaniciens français du LPC2E et trois électroniciens et informaticiens italiens du PNRA
(Programma Nazionale Ricerche in Antartide), leurs homologues du CNRS et IPEV en
Italie. Tout le trajet s’est fait en avion depuis
Paris, via Honk-Kong, Christchurh, base
Mario Zuchelli et Concordia. Le voyage aller
n’aura duré finalement que 4 jours dont 2
jours d’arrêt obligatoire à Christchurh.
© Gilles CHALU
10
Le radar, c’est tout d’abord un réseau principal de 16 antennes émettrices, puis un
réseau interférométrique de 4 antennes et
enfin un container abritant l’électronique
et l’informatique du système. En grandeur
: les antennes mesurent chacune 17,40 m.
Elles sont espacées les unes des autres de
15,50 m. Le réseau principal s’étend sur une
longueur de 300 m et 70 m pour le réseau
interférométrique, distant du principal de
90 m. L’ensemble a donc une emprise au sol
d’environ 3 hectares.
Une super logistique...
Le passage de la pression atmosphérique
du niveau de la mer à celle de la haute
montagne en moins de 4 heures est éprouvant. La seconde, c’est d’être seuls et isolés
dans un désert immense, blanc, dépourvu
de toute vie végétale et animale : Concordia
est sur une calotte de glace de plus de 3 km
d’épaisseur et à plus de 1000 km des côtes.
Mais l’acclimatation se fait rapidement. Les
travaux d’installation doivent être lancés.
Après vérification de l’état du matériel arrivé
4 ans auparavant, l’ensemble du radar est
assemblé et monté. Le travail s’est réalisé
dans ces
conditions extrêmes et éprou© Gilles CHALUMEAU
< LPC2E
vantes, 8 à 10 heures par jour en extérieur
avec les mêmes risques physiques qu’au
sommet du Mont Blanc. 24 antennes ont
été posées avec 6 haubans pour chacune.
Au total, 56 poteaux métalliques de 2 mètres
ont été enfoncés d’1.80 m dans la glace pour
maintenir ces haubans. A cet ensemble
s’est ajouté le système d’alimentation des
Outre son rayonnement électromagnétique dont une partie est responsable de l’ionisation de
la haute atmosphère terrestre appelée l’ionosphère, le Soleil émet également en permanence
un flux particulaire constitué essentiellement d’électrons et de protons, appelé plasma du vent
solaire. Ce dernier entraîne avec lui les lignes de champ magnétique du Soleil dans l’espace interplanétaire. En amont de la Terre, le vent solaire est ralenti au travers d’un choc et dévié tout
autour de l’obstacle créé par le champ magnétique terrestre, appelée la magnétosphère. Cette
interaction complexe permet un transfert de mouvement depuis le vent solaire vers l’environnement ionisé terrestre, engendrant un transport perpendiculaire au champ magnétique du plasma
dans les régions polaires de la magnétosphère et de l’ionosphère.
SuperDARN est un réseau international de radars trans-horizon qui fournit des observations
continues de la convection du plasma ionosphérique grâce à sa couverture globale des régions
de haute latitude Nord et Sud. La variabilité de cette convection permet de suivre le degré d’interaction de l’environnement terrestre avec le vent solaire.
Aurélie MARCHAUDON, responsable du projet SuperDARN en France
moyennes latitudes, c’est la présence du
soleil 24 heures sur 24…
Mais malgré toutes ces contraintes environnementales et leur impact sur les organismes humains, la mission a été remplie.
L’objectif a été atteint : le radar SuperDARN
a été assemblé, complètement monté
et opérationnel dans les délais impartis
à l’équipe technique franco-italienne. La
performance doit cependant beaucoup au
travail préparatoire réalisé en amont et aux
moyens logistiques de l’IPEV. A partir de la
fin du mois de janvier, les conditions météo
se sont rapidement dégradées rendant
les moyens de transports plus aléatoires.
L’avion de retour a ramené les mécaniciens
du LPC2E vers leurs terres orléanaises plus
hospitalières, via un petit détour par la
base australienne de Casey puis l’Australie.
Gilles CHALUMEAU < LPC2E
[email protected]
Stéphane CHEVRIER < LPC2E
[email protected]
Frédéric SAVOIE < LPC2E
[email protected]
http://lpce.cnrs-orleans.fr
[email protected]
11
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
α
Mathématiques al
ci
é
p
s
r
e
i
s
s
o
D
Mathématiques Quand les volcans coincent la bulle…
La compréhension d e s mécanismes éruptifs est à la base de la prévention des risques liés aux
volcans ainsi que de l’étude de la construction de la croûte terrestre.
Les éruptions volcaniques sont classées en
deux catégories: les effusives et les éruptives. Les premières se caractérisent par
l’émission séparée de magma et de gaz, le
magma formant un dôme ou une coulée de
lave, le gaz étant doucement dispersé dans
l’atmosphère. Les secondes, au contraire, se
distinguent par la fragmentation du magma
et la propulsion brutale dans l’atmosphère
de gaz pressurisés et de morceaux de lave.
La plupart des volcans produisent des éruptions du même type. Toutefois, il y a des
exemples (comme la Soufrière de Montserrat, Caraïbes) où les deux types d’éruption se manifestent. Ce phénomène ne
peut donc pas seulement s’expliquer par la
chimie du magma contenu dans le volcan.
D’autres facteurs doivent entrer en jeu.
La communauté de géophysique estime que
la classe d’une éruption est liée à la façon
Les mathématiques s’avèrent être bien souvent un moyen d’investigation dans
des domaines ou des lieux inaccessibles à l’homme et aux machines. Leur
contribution à la recherche de solutions à des problèmes mondiaux comme
les catastrophes naturelles, les changements climatiques, le développement
durable ou la santé, est primordiale. Des laboratoires de la circonscription,
par les travaux interdisciplinaires auxquels ils participent, apportent un grand
nombre d’éléments de réponse.
dont les bulles des gaz, contenues dans le
magma et nucléés en profondeur, grossissent et coalescent* pendant la remontée du conduit. Il est supposé que si cette
coalescence des bulles permet de construire
un chemin vers la surface à travers lequel
le gaz peut s’échapper, l’éruption serait du
type effusif ; alors que si ce chemin ne se
forme pas, le magma dans le conduit arrive
en surface sursaturé par le gaz resté emprisonné et une éruption explosive en suit.
La chimie du magma, la présence de bulles
de gaz en son sein et la façon dont ces
bulles se comportent jouent un rôle déterminant dans le type d’éruption.
Modélisation mathématique
Ces dernières années, des géophysiciens et
des mathématiciens ont uni leurs connaissances pour écrire un modèle mathématique qui puisse décrire la croissance
des bulles par décompression, diffusion
et coalescence. La complexité du processus physique les a amenés tout d’abord à
étudier la seule croissance par décompression et diffusion en partant du modèle de
référence dans la communauté géophysique qui date des années 80 et qui a été
repris ces dernières années. Il décrit, par
un système d’équations non- linéaires, la
croissance d’une seule bulle représentative en considérant que toutes les bulles
évoluent de la même façon. Une analyse
mathématique et numérique du modèle a
permis sa simplification et la définition de
taux de croissance en volume et masse de
la bulle. Ceci a ensuite porté à la description
statistique/cinétique de l’évolution d’un
ensemble de bulles grossissant par décom-
(*) les poches de gaz se forment à partir de petites bulles
de gaz, comme la pluie se forme par coalescence à partir
de gouttelettes.
pression, diffusion et coalescence par
une équation aux dérivées partielles dont
l’inconnue est la fonction distribution des
bulles définie sur des variables non standard (la masse et le volume).
La prise en compte de la coalescence
a demandé plus de réflexion avec tout
d’abord la compréhension du mécanisme
physique qui régit la coalescence des
bulles. Par rapport aux travaux connus sur
la coalescence des particules, les bulles
dans le conduit volcanique n’ont pas une
position spatiale ni une vitesse relative,
mais peuvent coalescer seulement grâce
au rapprochement de leur parois. La détermination d’un taux de coalescence physiquement adapté à cette situation a abouti
à l’écriture d’un modèle de coalescence
multi-dimensionnelle, posant ainsi d’inté-
12
13
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
α
Mathématiques Explosion d’une bulle de gaz formée à
partir de millions de bulles plus petites.
ressantes questions mathématiques.
Le modèle mathématique incluant la croissance et coalescence des bulles est maintenant mis à l’épreuve. Les premières comparaisons avec les résultats expérimentaux
sont tout à fait satisfaisantes et demandent
la réalisation de nombreuses expériences
pour une validation plus complète.
Mathématiques Ce travail inter-disciplinaire montre que la
mise en commun des différentes cultures et
formations scientifiques permet non seulement d’avancer dans la compréhension de
phénomènes naturels qui nous entourent,
mais aussi de faire évoluer la théorie mathématique.
Simona Mancini < mAPMO
[email protected]
Mesures sur des sillons réalisées en laboratoire.
éviter que les petits ruisseaux ne deviennent de
grandes rivières
Les inondations et les coulées boueuses peuvent avoir un impact important sur les habitations et les voies de
circulations. Mieux savoir les modéliser pourrait permettre d’installer des aménagements, tels que des bandes
enherbées, afin de limiter les conséquences des événements à venir.
Le constat était que, afin d’aménager au
mieux les terrains pour prévenir des inondations, il est nécessaire de savoir mieux
modéliser le ruissellement. En effet, les
logiciels utilisés actuellement au niveau
décisionnel ne donnent pas entière satisfaction, car, en particulier, les prévisions
fournies peuvent être assez éloignées de
la réalité. Le but de la collaboration avec
l’unité de recherche Science du Sol (INRA
Val de Loire Orléans) a donc été de modéliser plus précisément le ruissellement de
l’eau sur une surface agricole, sans prendre
en compte l’érosion dans un premier temps.
La modélisation
du ruissellement
14
Le ruissellement entre
dans la catégorie des
écoulements de faible
profondeur, puisque
les hauteurs d’eau sont
très faibles (quelques
millimètres)
par
rapport aux dimensions
horizontales
considérées
(supérieures à 10 mètres).
Les équations qui
régissent de tels écoulements sont les équations de Saint-Venant,
équations qui relient
entre elles la hauteur
d’eau et la vitesse de
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
les représenter explicitement. Pour cela,
un terme de type « frottement » qui ralentit l’eau de la même façon que les sillons, a
été ajouté. Ce frottement est fonction de
la taille des sillons via la quantité d’eau qui
peut être stockée dans un sillon.Après avoir
développé le logiciel pour le ruissellement,
les mathématiciens s’intéressent à la modélisation de l’érosion des sols. Ce phénomène
complexe demande d’étudier simultanément les particules mises en suspension,
Topographie représentant les sillons.
Topographie plane à laquelle on ajoute
un frottement pour tenir compte de
l’existence de sillons.
transportées et déposées. Il sera nécessaire
de modéliser chaque partie du phénomène
comme par exemple l’impact des gouttes de
pluie sur l’érosion.
Carine LUCAS < mAPMO
[email protected]
l’écoulement, en fonction des différents
paramètres physiques comme la pente ou
les frottements à la surface du sol.
Outre les difficultés liées aux mesures de
certains paramètres, il est en général impossible de trouver une solution exacte à ces
équations. Aussi, le travail des mathématiciens consiste à développer des méthodes
numériques les résolvant de manière approchée. C’est ainsi qu’a été développé le logiciel FullSWOF, reposant sur des méthodes
numériques adaptées et efficaces.
La prise en compte des sillons
sans les représenter
Lorsque l’on cherche à simuler le ruissellement dans un champ de plusieurs hectares,
il est impossible de prendre une résolution
suffisamment grande pour représenter
chaque sillon. Cela supposerait de cartographier le champ avec une résolution de
quelques centimètres, ce qui est quasi inatteignable au niveau de la mesure, mais qui,
de toutes façons, serait trop coûteux du
point de vue numérique.
Statistiques et énergies renouvelables
Le domaine des énergies renouvelables, où les ressources sont très aléatoires et intermittentes, est un
champ d’application intéressant pour la théorie des probabilités et les méthodes statistiques.
La demande croissante en énergie et
la prise de conscience écologique a
redonné plus d’importance aux énergies dites renouvelables : énergie d’origine solaire, éolienne, hydraulique,
thermique ou végétale. La part de
ces énergies dans le parc énergétique
reste cependant en deçà des objectifs annoncés, pour plusieurs raisons :
choix politiques, rentabilité, difficultés
technologiques, mais surtout caractère
hautement aléatoire et intermittent
des ressources .
Des ressources et énergies aléatoires et intermittentes
Le domaine des énergies renouvelables
est un champ d’application intéressant
pour la théorie des probabilités et les
méthodes statistiques. Pour un lieu et un
jour donnés, le rayonnement solaire sous
ciel clair ou rayonnement extra-terrestre
(extraterrastral solar radiation), suit une
courbe connue. Ce rayonnement est rendu
très aléatoire par le passage des nuages, les
conditions météorologiques et la réflexion
du rayonnement des objets environnants,
c’est le rayonnement solaire global. L’indice
de clarté (clearness index) kt est le quotient
Avec le logiciel FullSWOF, il a été possible de
prendre en compte les sillons agricoles sans
15
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
α
Mathématiques permet aussi de faciliter la
modélisation et la prédiction sur cet intervalle pour
les séquences d’une même
classe. Cela est d’autant
plus intéressant que l’on
ne change pas de classe
pendant plusieurs journées consécutives.
du rayonnement global par le rayonnement
extra-terrestre.
Si est appelée séquence, une suite d’observations entre deux instants, on observe le
caractère intermittent des séquences :
chutes et pics se succèdent. L’énergie
induite par une séquence, qui est l’intégrale
de la séquence, est donc elle aussi aléatoire et intermittente. Concernant l’énergie
éolienne, chacun a eu l’occasion d’observer que la direction du vent et son module
sont aléatoires et intermittents. Il en est
de même pour l’énergie hydrolienne. La
maîtrise des énergies renouvelables nécessite donc l’utilisation des techniques de
probabilités et de statistiques.
La classification de séquences
Regrouper en un nombre fini de classes
homogènes, des séquences observées
pendant un même intervalle de temps,
permet d’établir des séquences types et
Certaines méthodes de
classification utilisent une
notion de distance entre séquences,
distance qu’on est amené à choisir. D’autres
partent d’une analyse en composantes principales (ACP) des séquences. Enfin on peut
aussi ne s’intéresser qu’aux valeurs prises
par les séquences et classifier leurs histogrammes par une estimation de mélanges
de lois de Dirichlet. La convergence (consistence) de la classification, quand le nombre
de tranches de l’histogramme augmente, se
démontre à l’aide du théorème des martingales et d’un théorème sur les processus de
Dirichlet.
L’intérêt
de la modélisation
Décrire les courbes observées à l’aide de
modèles probabilistes est une tâche très
délicate mais elle présente plusieurs intérêts comme évidemment la prédiction de
l’énergie dont on pourrait disposer entre
deux instants. Un deuxième intérêt, moins
connu, est qu’un modèle adéquat améliore
considérablement la conception des convertisseurs (panneaux solaires, éoliennes, ...).
Par exemple, à partir d’un modèle probabiliste, on peut simuler par ordinateur
de nombreuses séquences de vents pour
régler les composantes électroniques des
éoliennes grâce à un programme d’optimisation. Le processus du module du vent a
été modélisé par des séries temporelles et
par le Mouvement Brownien Multifractionnaire, un processus plus irrégulier que le
Mouvement Brownien. L’index de clarté de
séquences courtes a été modélisé par une
EDS (équation différentielle stochastique)
et celui d’une séquence journalière par une
EDS en milieu aléatoire [9], où le milieu qui
représente l’aléa due à l’environnement est
modélisé par une chaîne de Markov à temps
continu. Enfin des modèles de séries spatiotemporelles ont été utilisés pour prédire,
à partir de quelques points de mesure, le
rayonnement solaire au voisinage de ces
points. Cela permet d’établir une cartographie du rayonnement solaire sans avoir
besoin d’effectuer des mesures en tout
point.
Richard EMILION < mAPMO
[email protected]
L’évolution du climat de la Terre est difficile à prédire en raison du nombre gigantesque de variables impliquées. Même les modèles numériques les plus sophistiqués représentent l’atmosphère, les océans et les
continents de manière forcement discrétisée, en spécifiant des valeurs de la température, la pression,
la vitesse du vent, etc, moyennées sur des volumes de plusieurs kilomètres cube.
16
tion. En première approximation, on retient
souvent le bruit blanc, plus facile à contrôler
mathématiquement.
L’effet le plus dramatique du bruit est de
produire des transitions entre des états
qui seraient stables en son absence. Or des
transitions relativement abruptes entre
régimes climatiques stables ont eu lieu par
le passé, comme le révèlent les données
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
Position d’une bille dans un potentiel à 2 puits.
dix glaciations majeures, entrecoupées à
intervalles assez réguliers, de périodes plus
clémentes, environ tous les 90 000 ans.
Selon la théorie proposée par James Croll
au 19ème siècle et développée par Milutin Milankovitch dans la première moitié
du 20ème siècle, la périodicité serait due
à des variations des paramètres de l’orbite
terrestre, en particulier son excentricité, qui
influencent l’insolation moyenne. Toutefois
les variations d’insolation semblent trop
faibles pour expliquer les transitions entre
glaciations et périodes de climat tempéré.
Au début des années 1980, deux groupes
de chercheurs ont proposé indépendamment que les transitions étaient facilitées
par l’effet d’un bruit. Ce phénomène, appelé
résonance stochastique, peut s’illustrer à
l’aide d’un exemple très simple : supposons
que l’évolution de la température moyenne
soit régie par une équation différentielle,
admettant deux valeurs stables qui corres-
pondent aux périodes de glaciation et de
climat tempéré. On peut visualiser la dynamique de la température en l’assimilant à
la position d’une bille dans un potentiel à
deux puits. La profondeur des puits varie
périodiquement sous l’effet des paramètres
orbitaux, mais sans permettre de transition
entre régimes climatiques.
En ajoutant un terme de bruit dans l’équation différentielle, on s’aperçoit que les transitions entre puits de potentiel deviennent
possibles. La distribution de probabilité des
temps de transition dépend des paramètres
du système : amplitude et fréquence de
forçage périodique et intensité du bruit.
Pour une amplitude de forçage nulle, les
temps de transition sont distribués de
manière exponentielle. A mesure que l’amplitude de forçage augmente, les transitions
deviennent de plus en plus régulières.
Le calcul de la loi des temps de transition,
même pour ce modèle relativement simple,
est un problème mathématiquement non
trivial. Il peut néanmoins être résolu, pour
des intensités faibles du bruit, à l’aide d’outils d’analyse stochastique. On obtient une
distribution exponentielle modulée périodiquement, la modulation étant liée à la loi
dite de Gumbel.
Il existe de nombreux autres exemples de
transitions critiques dans le système climatique, affectant par exemple la circulation
thermohaline Nord-Atlantique (le Gulf
Stream), la banquise Antarctique, ou la
désertification. Une meilleure compréhension de l’effet d’un bruit sur ces transitions
aidera à mieux prédire les variations climatiques futures.
Nils Berglund < MAPMO
[email protected]
L’imagerie mathématique
au secours des monuments dégradés
Le climat et ses aléas
Au lieu d’ignorer simplement les erreurs
d’approximation, il peut être préférable de
simuler leur effet par un terme aléatoire
qu’on appelle un bruit. Il existe plusieurs
modèles mathématiques de bruit, le mieux
connu étant le bruit blanc gaussien. Mais il
y en a de nombreux autres : bruits corrélés,
processus de Levy,… Choisir un bruit approprié est un problème difficile de modélisa-
Mathématiques paléoclimatiques obtenues par l’étude de
différents indicateurs (appelés proxies) tels
que les carottes glacières et des dépôts sur
les fonds marins. Ces transitions sont-elles
dues à l’effet du bruit ?
L’exemple le plus connu de transition climatique est celui des glaciations. Pendant le
dernier million d’années, la Terre a connu
Les moyens d’imagerie actuels permettent d’ausculter l’intérieur des pierres mise en œuvre dans la construction de monuments historiques. Les techniques d’analyse mathématique extraient ensuite des images obtenues des informations sur la structure des matériaux altérés au fil du temps.
La protection du patrimoine
Les monuments historiques subissent
l’action de leur environnement et sont
dégradés, voire fortement endommagés.
Ces ouvrages sont des parties intégrantes
de notre patrimoine et constituent des
œuvres d’art irremplaçables qu’il convient
de protéger, d’entretenir et de réparer. C’est
pourquoi une communauté variée (architectes, restaurateurs, géologues, physiciens, mathématiciens) met en commun ses
efforts pour préserver ce patrimoine. L’objectif est d’obtenir une description à toutes
les échelles des processus de diffusion de
l’eau dans les réseaux poreux des pierres
utilisées pour la construction des monuments historiques.
L’analyse s’est focalisée sur une pierre
sédimentaire, le tuffeau, utilisée dans de
nombreux monuments historiques le long
de la vallée de la Loire. Ces pierres extrêmement poreuses (40 à 50% de vide) sont
composées principalement de calcite (40 à
70%) et de silice (20 à 60%) sous forme de
quartz (grains) et d’opale (sphérules).
17
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
α
Mathématiques Mathématiques Penser global – Agir local,
la théorie du contrôle en écologie et agronomie
Gérer les écosystèmes naturels et agronomiques au plus près, afin de préserver les services écosystémiques
et de promouvoir une agriculture durable, implique le développement et l’utilisation de nouveaux outils
mathématiques capables de représenter une réalité complexe.
Dans ce contexte, il s’agit de déterminer par
analyse d’images 3D, à l’échelle du micromètre, les modifications minéralogiques et
structurales du tuffeau dues à des phénomènes d’altération. Les mathématiciens
disposent d’images de micro tomographie
X obtenues par l’Institut des Sciences de la
Terre d’Orléans (ISTO – UMR 7327 CNRS/
Université d’Orléans/BRGM), pour identifier la forme et la structure 3D des phases
poreuses et solides. Une difficulté particulière toutefois : les images présentent des
contours et des régions mal définies du
fait de la porosité de la roche. La structure
microporeuse du tuffeau se traduit par des
éléments de texture qu’il convient d’analyser et de restaurer. Le but final de l’étude
est d’identifier le milieu et de le reconstruire en 3D. Le domaine ainsi reconstitué
servira de fondation à une modélisation
physico-chimique des transferts hydriques
dans le matériau. Dans la perspective de la
modélisation des transferts de fluide et de
masse dans le réseau poreux du matériau,
la connaissance de la structure, la morphologie et la minéralogie des pierres est une
étape primordiale. Cet objectif peut être
atteint en procédant à l’analyse des images
tridimensionnelles obtenues par microtomographie X.
Un modèle mathématique de
décomposition d’image
Les images de micro-tomographie X sont
des images en niveaux de gris, présentant plusieurs régions correspondant aux
différentes phases de la pierre. L’analyse
d’images de milieux aussi complexes nécessite des méthodes qui préservent au maximum l’information originale.
Le modèle mathématique utilisé décompose les images en différentes composantes (calques) qui appartiennent chacune
à des espaces mathématiques différents,
« ciblant » donc des caractéristiques différentes de l’image. Plus précisément, l’image
est décomposée en un calque qui capte
la dynamique générale (remédiant ainsi
aux éventuels problèmes d’éclairage), une
partie captant les contours (ou les macrotextures) et une composante isolant le bruit
et/ou les micro-textures. Le modèle fournit ainsi une méthode de débruitage non
blissement de réserves marines, combiné
à l’allocation de zones de pêche spatialement ajustées. Les travaux les plus récents
démontrent qu’il est possible, en définissant
des zones de protection totale et des zones
de capture, d’augmenter non seulement
les stocks de poissons, qui ont tendance à
aller de manière privilégiée dans les zones
de refuges, mais également les tonnages
pêchés, dès lors où les zones de pêche sont
contigües.
destructive et des informations morphologiques sur la structure de la roche. A cela
s’ajoute le réglage de différentes échelles
via des paramètres. De cet ensemble naît
une description précise du vide à l’intérieur
de la pierre, en 3D.
L’objectif est de comprendre et prédire l’influence de la structure d’un milieu poreux
désordonné sur l’écoulement d’un fluide
imprégnant le matériau. La reconstitution
précise du milieu 3D va permettre d’utiliser des modèles de transfert hydrique
pour décrire complètement le phénomène
d’érosion de la pierre. C’est un travail sur le
long terme qui va mobiliser physiciens et
mathématiciens
Vers une boîte à outils mathématiques
Maïtine BERGOUNIOUX < mAPMO
[email protected]
http://www.univ-orleans.fr/MAPMO
Les processus écologiques sont dynamiques
dans le temps et l’espace. Les contrôler
implique par conséquent des perturbations temporelles ou spatiales. Les études
sur le contrôle temporel des populations,
par application de pesticides contre des
insectes, champignons ou mauvaises
herbes, ou par augmentation de la quantité
de nourriture pour les oiseaux en hiver par
exemple, sont légions. L’étude du contrôle
spatial des populations est par contre très
récente, les premiers travaux datant des
années 90.
Un contrôle judicieux et parcimonieux
On distingue le contrôle intrinsèque, comme
celui des prédateurs sur les proies, du
contrôle forcé lorsque l’homme intervient,
par exemple en favorisant l’établissement
de pollinisateurs en établissant des bandes
18
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
enherbées le long des champs comme lieux
de nourriture et d’abris privilégiés. L’idée
même d’utiliser le contrôle spatial consiste à
déterminer les conditions spatiales menant
à un contrôle efficace sur l’ensemble d’une
surface : les caractéristiques idéales de l’emplacement du contrôle sont déterminées en
se basant sur les phénomènes de diffusion.
Selon la valeur des paramètres, le contrôle
peut finalement se propager sur l’ensemble
de l’espace, tout comme un tapis qui se
déroulerait de lui-même.
Penser spatialement conduit donc à utiliser
le contrôle, quel qu’il soit, de manière judicieuse et parcimonieuse, ce qui est souhaitable écologiquement et économiquement.
Un domaine d’applications écologiques qui
connaît des avancées majeures est l’éta-
L’étude du contrôle temporel des ravageurs par la lutte biologique – l’utilisation
d’ennemis naturels tels que les coccinelles
contre les pucerons- en utilisant la théorie
du contrôle optimal est récente. Des équations différentielles à « impulsions » sont
généralement utilisées, car elles prennent
en compte la continuité temporelle du
contrôle par les prédateurs ainsi que la
nature discontinue des mesures appliquées,
tels que les lâchers. Il reste passablement
des travaux en mathématiques appliquées à
développer sur les systèmes hybrides avant
que ces équations fassent partie d’une boîte
à outils facilement utilisable par les biologistes et les agronomes.
« ...aucune des études
conduites à ce jour n’a
considéré le contrôle
spatial... »
Dans l’exemple de la lutte contre la mineuse
du marronnier, le contrôle de cet insecte a
19
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
α
Mathématiques Contrôle d’une population
L’évolution temporelle de l’organisme et le contrôle appliqué par l’homme peuvent être
modélisés par l’équation différentielle suivante :

 h(t ) 
+
rh(t ) 1 −
, t ∈� \T�
h '(t ) =
K




+
=
j∈�
ρ h jT − ,
h jT

−
h 0 = h0 > 0

( )
( )
(
)
h(t) = densité d'organismes au temps t
r = taux de croissance
K = capacité d'accueil
ρ = amplitude de prélèvement
T = temps entre 2 contrôles successifs
On démontre que la densité diminue et tends à disparaître si ρ e < 1 . Cela veut dire que si r et ρ sont fixés, il faut augmenter la
fréquence d’application du contrôle pour contrôler la population de l’organisme invasif, ce qui équivaut à diminuer l’intervalle entre
deux traitements, T.
rT
été optimisé par le ramassage de feuilles ;
une fréquence et un effort de collecte suffisant peuvent apparemment venir à bout de
ce problème, pour l’instant sans solutions.
Néanmoins, aucune des études conduites
à ce jour n’a considéré le contrôle spatial,
alors que bien des systèmes de production agricole sont spatialement structurés.
Les bandes enherbées en sont un exemple
et la recherche n’est pas encore à même
de donner des indications fiables sur le
contrôle attendu en fonction de la largeur
de la bande ou son emplacement.
L’agroforesterie, un exemple de
structuration spatiale
Marier arbres et champs est une ancienne
façon de concevoir l’agriculture qui revient
en force, de part les multiples avantages
induits - protection des sols et des bassins
versants, puits de carbone, biodiversité
plus élevée, rendements mixtes meilleurs.
Les zones entre les arbres au sein d’une
rangée ne sont généralement pas exploitées et leur gestion peut favoriser toute une
faune d’axillaires. Les coccinelles, carabes,
et autres syrphes apprécient le pied et la
couronne des arbres comme lieux de repos,
de ponte ou encore d’appoint nutritionnel. Si l’on désire privilégier leurs services
dans la parcelle (un des nombreux services
écosystémiques), il faut alors s’intéresser à la conduite de ces espaces (enherbage, débroussaillage etc.) mais aussi aux
mouvements de ces insectes tout en tenant
compte de l’interaction des proies et prédateurs, sous forme de mortalité et natalité.
Ces équations de réaction-diffusion relativement complexes, notamment utilisées
dans des modèles de morphogénèse par A.
Turing, peuvent aboutir à un contrôle spatial
intrinsèque dans un espace homogène ou
hétérogène. Penser global en faisant travailler le contrôle pour nous, en n’intervenant
que de manière locale à des endroits précis
et en laissant le système opérer par la suite
sur l’ensemble de la parcelle est souhaitable écologiquement et économiquement.
Prenons l’exemple d’une espèce invasive
que l’on veut contrôler. Si les moyens de
contrôle sont limités, alors mieux vaut
concentrer localement le contrôle sur une
zone que d’agir partout. Si on positionne la
zone de contrôle de manière adéquate, on
arrive à éliminer l’envahisseur sur la totalité
du domaine.
La lutte biologique nécessite un soin particulier et un suivi très régulier ; optimiser
le choix des lieux de perturbation respecte
l’écosystème et minimise les coûts. C’est le
but des recherches actuelles à l’Institut de
Recherche sur la Biologie de l’Insecte (IRBI –
UMR 7261 CNRS/Université François Rabelais) avec le Laboratoire de Mathématiques
et de Physique Théorique (LMPT – UMR
7350 CNRS/Université François Rabelais)
car il faut urgemment passer d’une agriculture intensive en entrants chimiques à une
agriculture écologiquement intensive, gourmande en savoir. Le contrôle spatial peut y
contribuer pleinement.
Mathématiques Christelle SUPPO < IRBI
[email protected]
Sten MADEC < LMPT
[email protected]
Guy BARLES < LMPT
[email protected]
Jérôme CASAS < IRBI
[email protected]
http://irbi.univ-tours.fr/
http://www.lmpt.univ-tours.fr/
De l’équation à la guérison
L’efficacité thérapeutique des anticorps monoclonaux n’est plus à démontrer. La modélisation mathématique
permet d’en optimiser l’efficacité et d’en limiter les effets indésirables.
Les anticorps monoclonaux sont utilisés
depuis 1995 pour le traitement d’affections
graves telles que les maladies inflammatoires chroniques et les cancers. Ils font
partie des « biomédicaments » car ils sont
produits par des cellules en culture et non
par synthèse chimique
Un traitement, plusieurs réponses
Bien que les anticorps monoclonaux aient
toutes les caractéristiques des anticorps
que notre organisme développe pour se
protéger des infections, et bien que leur
cible dans l’organisme soit parfaitement
connue, tous les patients ne réagissent pas
de la même façon au traitement : certains
subissent des effets indésirables, d’autres
sont confrontés à une inefficacité thérapeutique. Il est donc nécessaire de comprendre
quelles sont les causes de cette variabilité
de réponse et d’étudier comment personnaliser la posologie pour chaque patient. C’est
le sujet de recherche de l’ équipe 1 du
Laboratoire Génétique, Immunothérapie,
Chimie et Cancer (GICC – UMR 7292 CNRS/
Université François-Rabelais de Tours)*.
20
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
21
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
α
Mathématiques Variabilité pharmacocinétique du cetuximab dans le cancer colorectal métastatique.
(A) : La PK est décrite à l’aide d’un modèle à deux compartiments. La capacité globale d’élimination est constituée de l’élimination non spécifique (k10) et de l’élimination spécifique
(k0), liée à l’EGFR.
(B) : Les patients ayant une capacité d’élimination globale plus élevée (bleu) présentent des
concentrations plus faibles.
(C) : Les patients ayant une
capacité d’élimination globale
supérieure à la médiane (bleu)
avaient un risque de progression
de la maladie plus élevé que les
autres patients.
(D) : Dès le 14ème jour, la concentration de cetuximab permettait
de prédire la capacité globale
d’élimination, donc le temps
pendant lequel un patient traité
ne présentera pas de rechute.
22
Vers une personnalisation
des traitements
Dans le cas
du cancer colorectal…
Les sources potentielles de variabilité de
réponse sont très nombreuses : poids, sexe,
facteurs génétiques, gravité de la maladie,
médicaments associés, etc. Seule la modélisation mathématique permet d’étudier tous
ces facteurs individuels de façon simultanée et de quantifier leurs effets respectifs.
Les modèles utilisés « dissèquent » la relation entre dose administrée et réponse du
patient. Ils différencient la relation entre
dose et concentration sanguine, décrite par
des modèles pharmacocinétiques (« PK »)
et la relation entre concentration sanguine
et réponse, décrite par des modèles pharmacocinétiques-pharmacodynamiques
(« PK-PD »). Une fois construit, le modèle
peut être utilisé pour simuler la réponse
attendue chez les patients avec différentes posologies et donc pour concevoir
des études cliniques améliorant l’efficacité thérapeutique et diminuant les effets
indésirables de ces médicaments indispensables.
Le cetuximab est un anticorps monoclonal
anticancéreux qui se fixe sur l’EGFR, un
récepteur agissant sur la croissance des
tissus. Il inhibe ou détruit les cellules qui
l’expriment à leur surface. Dans le cancer
colorectal, la dose de cetuximab est ajustée
à la surface corporelle, une mesure prenant
en compte à la fois le poids et la taille des
patients.
« L’adaptation individuelle
de la posologie s’avère
donc très prometteuse. »
Malgré cet ajustement, il persiste une
grande variabilité de réponse au traitement. L’approche des chercheurs cliniciens,
biologistes et biométriciens du GICC a tout
d’abord consisté à décrire la pharmacocinétique du cetuximab chez chacun des 96
patients inclus dans une étude clinique. Ils
ont montré que cet anticorps est éliminé
de l’organisme à la fois par un mécanisme
non spécifique, commun aux anticorps,
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
et par un mécanisme spécifique, lié à la
quantité d’EGFR. Il a ensuite été observé
que les patients ayant une capacité d’élimination globale supérieure à la médiane
(donc les concentrations de cetuximab les
plus faibles) avaient un risque de progression de la maladie plus important que les
autres patients. Par ailleurs, les chercheurs
ont observé que dès le 14ème jour (juste
avant la 3ème injection du biomédicament),
la concentration de cetuximab permettait de prédire la survie sans progression
des patients, c’est-à-dire le temps pendant
lequel un patient traité ne présentera pas
de rechute de sa maladie. L’adaptation individuelle de la posologie s’avère donc très
prometteuse.
… de la polyarthrite rhumatoïde
Ce rhumatisme inflammatoire chronique
est tout à la fois douloureux et invalidant.
Le TNF-α, un médiateur de l’inflammation
impliqué dans cette maladie, est bloqué
par l’infliximab. Cet anticorps monoclonal
a bouleversé le traitement de cette affection. Son efficacité est en partie déterminée par ses concentrations sanguines car
elle augmente avec elles. La recherche
de facteurs expliquant la variabilité des
concentrations est donc indispensable. Trois
de ces facteurs ont été identifiés par le laboratoire :
- la vitesse d’élimination de l’infliximab par
l’organisme augmente avec l’inflammation.
Les patients dont la maladie est très active
auront donc des concentrations plus faibles
que les autres patients et le traitement sera
moins efficace chez eux. Ils bénéficieraient
de doses plus fortes.
- l’infliximab étant une protéine étrangère à
l’organisme, certains patients peuvent s’immuniser contre elle. Cette immunisation est
associée à une élimination beaucoup plus
rapide de l’anticorps et entraîne une perte
de son efficacité.
- l’association de traitements anti-inflammatoires, comme le méthotrexate, entraîne
une diminution de l’inflammation, donc une
diminution de l’élimination de l’infliximab
et une augmentation de ses concentrations.
La quantification de l’influence de ces trois
facteurs permettra de définir la posologie
optimale pour chaque patient.
… ou du lymphome malin
Le rituximab, autre anticorps monoclonal,
se fixe sur le CD20, une protéine exprimée à
la surface des lymphocytes B. En ciblant les
cellules des lymphomes malins, il provoque
leur destruction par le système immunitaire, et a révolutionné le traitement de
cette maladie. La dose de rituximab administrée pour traiter les lymphomes est de
375 mg par unité de surface corporelle. Le
traitement comporte une phase d’induction
(visant à réduire la maladie), durant laquelle
les patients reçoivent 6 ou 8 injections
toutes les 3 semaines, puis une phase de
maintenance, avec une dose tous les 2 ou 3
mois. Toutefois, aucune étude n’a démontré
que cette dose était optimale.
A l’aide des informations disponibles dans
la littérature, les chercheurs ont construit
un modèle mathématique pour déterminer la dose optimale de rituximab dans les
lymphomes. Ce modèle quantifie la relation entre les concentrations sanguines de
rituximab, décrites à l’aide d’un modèle
PK, et l’efficacité, décrite par la survie sans
progression. D’après le modèle, la dose
d’induction de 375 mg/m2 est correcte. En
revanche, la dose de maintenance optimale
Mathématiques serait de 1500 mg/m2 car elle permettrait
d’augmenter d’environ 10% la survie sans
progression à 2 ans.
L’équipe poursuit actuellement son étude
des sources de variabilité de réponse aux
anticorps thérapeutiques en recherchant
notamment l’influence des facteurs génétiques individuels. Par ailleurs, ses chercheurs étudient, grâce à la modélisation
PK-PD, quelle concentration d’anticorps
doit être « ciblée » selon la maladie et son
stade et donc comment optimiser la personnalisation de la dose administrée à chaque
patient.
Gilles PAINTAUD < GICC
[email protected]
David TERNANT < GICC
[email protected]
Nicolas AZZOPARDI < GICC
[email protected]
http://gicc.cnrs.univ-tours.fr
*Ces travaux ont partiellement été financés par le
LabEx MAbImprove. Les génotypages et les mesures
de concentrations d’anticorps monoclonaux ont été
réalisées sur la plateforme du CePiBAc, cofinancé par
l’Union Européenne. L’Europe s’engage en région Centre
avec le Fonds Régional Européen de Développement
(FEDER).
Survie sans progression avec dose de maintenance à 375 mg/m2 (bleu clair) et à 1500 mg/m2
(bleu foncé), décrite à l’aide d’une fonction
exponentielle négative qui suppose l’indépendance de survenue des rechutes entre
elles (équation 1). Selon le modèle, le taux de
rechute (λ) est d’autant plus important que
les concentrations de rituximab sont faibles
(équation 2). La moyenne mobile des concentrations (Cm) prend en compte la persistance
de l’effet anti-tumoral du rituximab après
élimination de celui-ci (équation 3).
23
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
Biologie
Biologie
© CRIBL CNRS
Rôle de la 3’RR dans l’expression des anticorps
Rôle de la 3’RR dans le développement de lymphome
Le lymphocyte B,
une usine à fabriquer des anticorps
de mieux s’adapter aux antigènes, et ainsi
de combattre plus efficacement les pathogènes qui menacent notre organisme.
Maîtriser les dangers
Tout au long de la vie, notre organisme subit les attaques d’éléments pathogènes, tels que microbes, virus,
parasites... Pour y faire face, il possède un ensemble d’organes, de tissus et de cellules spécialisés dans la
protection contre ces attaques : c’est le rôle du système immunitaire. Ce système complexe doit être capable
de s’adapter pour éliminer rapidement et spécifiquement l’ensemble des pathogènes que rencontre quotidiennement l’organisme. Pour cela, il dispose entre autre des lymphocytes B, des cellules de la famille des
globules blancs capables de produire des anticorps, également appelés immunoglobulines.
Les anticorps sont des molécules complexes
en forme de « Y » contenant une partie
variable et une constante. Le partie variable,
située au bout du Y permet à l’anticorps de
reconnaître l’antigène, tandis que la partie
constante permet le recrutement des
autres éléments du système immunitaire.
Alors qu’il n’existe que cinq types de parties
constantes différentes, la partie variable de
chaque anticorps doit être capable d’identifier un seul antigène, d’où la nécessité pour
l’organisme de générer une grande quantité
d’anticorps possédant des parties variables
différentes.
Des anticorps
millions
24
par
Le rôle des lymphocytes B
est donc de synthétiser des
anticorps spécifiques des
antigènes à la surface des
pathogènes. Comme toutes
les protéines, les chaînes
qui forment les anticorps
sont codées par des gènes.
Dans le cas des chaînes
lourdes, la portion de chromosome contenant les
gènes est appelée locus IgH.
Le problème est de déterminer comment, à partir d’un
génome unique, commun à
toutes les cellules du corps,
les lymphocytes B vont réussir à se diversifier pour créer
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
des dizaines de millions d’anticorps différents, capable de lutter contre les dizaines
de millions de pathogènes que rencontrera l’individu au cours de sa vie. Afin de
produire cette grande diversité d’anticorps,
les lymphocytes B vont devoir remanier leur
gène et assembler comme des Légos® trois
types de segments d’ADN dits V, D et J. Chez
l’homme, on dénombre 152 segments V, 20
segments D et 4 segments J. La cellule va
couper son ADN, afin de conserver un seul
gène de chaque segment. Les segments
sont choisis de manière aléatoire, ce qui
autorise un grand nombre de combinaisons possibles (on parle de diversité combinatoire), mais bien loin des centaines de
milliers nécessaires.
Les anticorps ainsi obtenus sont malgré
tout de mauvaise qualité, et ne se lient
que faiblement aux antigènes. Pour bien
remplir leur rôle, ils ont besoin d’être
améliorés, modifiés, optimisés… Cette
optimisation indispensable nécessite un
processus appelé « hypermutation somatique », qui correspond à une accumulation
de mutations dans l’ADN codant les parties
variables des anticorps, pour leur permettre
Ces mécanismes permettent donc d’obtenir
une réponse immunitaire optimale, mais
constituent pour les généticiens un phénomène particulièrement intrigant. Alors que
notre génome est normalement réputé très
stable, une cellule unique très particulière,
le lymphocyte B, s’est arrogé le droit de le
muter afin d’optimiser les anticorps qu’elle
produit grâce à une succession de cassures
de l’ADN et de mutations.
« ...ces mécanismes se
doivent d’être contrôlés
de façon très stricte... »
Phénomène dangereux, potentiellement
cancérogène (les lymphocytes B sont d’ailleurs malheureusement à l’origine de beaucoup de lymphomes et de leucémies), ces
mécanismes se doivent d’être contrôlés de
façon très stricte dans le temps (pendant la
réponse à l’antigène) et dans l’espace (de
façon strictement limitée aux gènes d’immunoglobulines). Cette régulation est assurée par des séquences particulières d’ADN
réparties tout au long du segment de chromosome qui code les anticorps.
Le Laboratoire de Contrôle de la Réponse
Immune B et des Lymphoproliférations
(CRIBL - UMR 7276 CNRS/Université de
Limoges, CHU de Limoges) s’intéresse en
particulier à l’une de ces régions, nommée
« région régulatrice localisée en 3’ du locus
IgH » (ou 3’RR). Elle est principalement
connue pour réguler la synthèse des chaînes
lourdes d’anticorps, pour s’assurer qu’elles
ne soient exprimées que dans les lymphocytes B, et uniquement lors d’une réponse
immunitaire. Outre son rôle essentiel dans
la coordination de l’expression des gènes
codant les anticorps, la 3’RR possède
également un côté délétère. En effet, les
phénomènes de cassures et mutations se
produisant dans l’ADN des lymphocytes B
font du locus IgH une zone critique de translocations, c’est-à-dire d’échange de fragments entre les chromosomes. Lorsqu’un
gène est déplacé au locus IgH, son expression est activée par la 3’RR. Or, certains
gènes appelés oncogènes, lorsqu’ils sont
dérégulés, rendent la cellule cancéreuse.
Ainsi de nombreuses études, dont celles du
CRIBL, ont montré le rôle de la 3’RR dans le
développement de lymphomes.
l’étude des gènes codant les anticorps dans
les souris 3’RR déficientes permet de déterminer les mécanismes qu’elle contrôle. Les
premiers travaux sur ces modèles ont déjà
montré que la 3’RR n’est pas importante
lors des réarrangements VDJ (mécanisme
visant à former la partie variable de l’anticorps) mais est essentielle dans le choix de
la partie constante de l’anticorps. Récemment, les chercheurs ont démontré un rôle
de la 3’RR dans l’hypermutation somatique,
le mécanisme introduisant les mutations
dans les gènes des parties variables : elle
constitue l’interrupteur ON/OFF de ce
mécanisme qui participe ô combien à la
diversité de la réponse immunitaire. Elle
assure le ciblage précis de la protéine appelée AID, responsable des mutations dans la
partie variable.
Des mécanismes mis en évidence
La mise en évidence d’une telle coopération
entre la 3’RR et la protéine AID est une avancée majeure dans la compréhension des
remaniements géniques se produisant dans
les gènes des anticorps, et potentiellement
à l’origine de la cancérisation d’un lymphocyte B. A plus long terme, la meilleure
compréhension des événements aboutissant au développement d’un lymphome est
nécessaire pour l’émergence de nouvelles
perspectives thérapeutiques.
L’objectif du laboratoire est de déterminer
comment la 3’RR contrôle les mécanismes
qui permettent aux lymphocytes B de
casser leur ADN uniquement au niveau du
locus IgH, tout en maintenant l’intégrité du
reste de leur génome. Cette ambition s’est
concrétisée en 2010 avec la création au
laboratoire de modèles murins ne contenant plus la 3’RR dans leur génome.
Cette technique de délétion génétique
permet de mettre en évidence le rôle d’un
élément dans des processus physiologiques : s’ils sont altérés, il peut alors en
être déduit que la région supprimée joue un
rôle crucial dans ces phénomènes. Comparativement à des souris normales (présentant toujours la 3’RR dans leur génome),
Pauline Rouaud < CRIBL
[email protected]
Alexis SAINTAMAND < CRIBL
[email protected]
25
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
Biologie
Biologie
Les synthèses d’ARN (transcription) et de protéine (traduction)
constituent les deux étapes principales de l’expression des gènes.
Lorsque l’ARN néo-synthétisé n’est pas protégé par le ribosome (ou
par d’autres biomolécules), l’ARN hélicase Rho peut s’y fixer et l’utiliser
comme « piste » de déplacement ATP-dépendant. Rho déplace alors
les obstacles se trouvant sur son chemin, dont l’ARN polymérase, ce
qui provoque la terminaison de l’expression génique. Ce mécanisme
central de régulation contribue à diverses fonctions physiologiques
chez la bactérie, importantes pour son métabolisme de base et son
adaptation aux variations et stress environnementaux.
© Thinkstock®
Un moteur « six-cylindres »
sous le capot d’un bolide microbien
Le facteur Rho est un « nano-engin » biologique crucial pour l’expression et la protection des génomes bactériens. Cible d’un antibiotique naturel, la bicyclomycine, son mécanisme de fonctionnement est l’objet de
toutes les attentions.
26
La cellule est une entité dynamique qui,
pour fonctionner correctement, doit coordonner dans l’espace et dans le temps de
nombreux évènements et transactions
moléculaires. Une dérégulation de cette
coordination spatio-temporelle peut être à
l’origine de maladies mais peut aussi constituer la base de stratégies thérapeutiques
efficaces. C’est le cas, lorsqu’on provoque
volontairement et spécifiquement cette
dérégulation chez un organisme pathogène.
rant cellulaire majeur. Lorsqu’il est hydrolysé, il libère une énergie conséquente (~65
kJ/mole) qui est convertie en mouvements
nanoscopiques par de nombreux moteurs
moléculaires. C’est un peu comme la
combustion d’essence dont l’énergie libérée
(~4200 kJ/mole) est transformée en travail
« physique » par un moteur thermique.
Des moteurs moléculaires
Le Centre de Biophysique Moléculaire
(CBM, CNRS-Orléans) étudie une famille
spécifique de moteurs moléculaires appelés « hélicases ». Ces dernières remanient
l’organisation structurale de nombreux
assemblages intracellulaires contenant des
acides nucléiques. Il existe naturellement
deux sortes d’acides nucléiques : l’ADN qui
constitue nos gènes et l’ARN qui est produit
à partir de ces gènes et impliqué dans de
nombreux processus cellulaires essentiels.
Pour assurer et orchestrer ses fonctions, la
cellule dispose de « nano-engins » capables
de fabriquer, transporter, remodeler ou
détruire les nombreuses molécules et
assemblages moléculaires complexes qui
la composent. Il existe notamment des
enzymes appelés « moteurs » moléculaires (ou protéines moteurs) qui peuvent
générer un couple ou une force (jusqu’à
quelques dizaines de pico-Newtons) à partir
d’un « carburant » cellulaire. Par exemple,
l’enzyme « F1F0-ATP synthase » exploite le
principe des piles et batteries (différence
de potentiels électrochimiques au travers
une membrane, ici la membrane cellulaire)
pour alimenter la rotation de ses composants assurant la synthèse d’une molécule
essentielle à la vie, l’ATP (Adénosine-5’-TriPhosphate). L’ATP est lui-même un carbu-
«...moteurs moléculaires
appelés "hélicases".»
On distingue ADN hélicases et ARN hélicases suivant leur spécificité (ou préférence)
pour l’ADN ou l’ARN. Les hélicases peuvent,
par exemple, séparer les deux brins de la
double hélice d’ADN lors de sa réplication
(précédant la division cellulaire) ou encore,
comme dans le cas de l’ARN hélicase Rho qui
nous intéresse, interrompre la biosynthèse
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
d’ARN et ponctuer le processus complexe
d’expression des gènes.
Un objet biologique intrigant
L’hélicase Rho est impliqué dans divers
processus importants de l’expression et
de la protection des génomes bactériens.
Bien qu’ayant été abondamment étudiée,
de nombreux aspects essentiels, liés à ses
fonctions et à son mécanisme d’action,
restent mal compris. C’est l’un des très
rares exemples d’ARN hélicases organisées
en anneau hexamèrique, une configuration habituellement réservée aux ADN
hélicases. Ces dernières doivent séparer
les deux brins d’ADN suivant un principe
ressemblant à une fermeture éclair, en
parcourant de grandes longueurs d’ADN
(plusieurs milliers de paires de bases) sans
s’en décrocher. Cette propriété est assurée
par l’emprisonnement et le coulissement
d’un des brins d’ADN au centre de l’anneau
hélicase (tandis que l’autre brin reste exclu
à l’extérieur), un mécanisme communément admis, y compris pour Rho. Pourtant,
les chercheurs du CBM ont montré que Rho
n’était pas capable de séparer plus de 60 à
80 paires de bases d’ARN avant de s’en détacher. Une explication probable est que l’anneau Rho subit des ouvertures transitoires
pendant son déplacement le long de l’ARN,
permettant à ce dernier de « s’échapper ».
Rho reste néanmoins supérieur à la plupart
des ARN hélicases (capables de n’ouvrir que
quelques paires de bases d’ARN) et démolit ses cibles physiologiques (complexe de
transcription, doubles hélices d’ARN/ADN
appelées « R-loops ») avec une grande efficacité.
Un bolide moléculaire
Une marque distinctive de Rho est la
présence de six sites d’hydrolyse de l’ATP
au sein de son anneau hexamèrique. S’il
est admis que tous les sites participent au
cycle de fonctionnement élémentaire du
moteur Rho, il n’est pas clair de quelle façon
ils opèrent ni avec quel rendement énergétique. Des études structurales suggèrent
que ces six « cylindres » fonctionnent
l’un après l’autre et de manière ordonnée (comme dans un moteur thermique),
conduisant collectivement à un mouvement
de déplacement régulier de un nucléotide
d’ARN -ou de séparation d’une paire de
base- par molécule d’ATP hydrolysé (ce qui
correspondrait à un rendement d’environ 10%).
Des études biochimiques
menées
au CBM suggèrent
au contraire un
mouvement irrégulier constitué
de « sauts » de sept nucléotides
requérant 60 à 70% de l’énergie libérée par
l’hydrolyse d’ATP. Il est probable que seules
des analyses sophistiquées, à l’échelle de la
molécule unique, permettront de trancher
ces questions. Un partenariat a été initié
dans ce sens avec des physiciens du Centre
de Biochimie Structurale de Montpellier. Les
premiers tests sont encore insuffisamment
résolutifs mais ont en revanche permis
d’évaluer la vitesse de déplacement de
Rho à environ deux fois celle du complexe
de transcription. Rho est donc un véritable
bolide moléculaire qui engage une course
avec un autre nano-engin (le complexe de
transcription) car il doit le « caramboler »
(et le détruire) avant que lui-même ne
quitte la « piste » ARN (en s’en détachant).
Bien des questions en suspens
Rho n’est pas présent chez l’homme, les
animaux ou les plantes mais, d’après une
étude menée au CBM, il est codé par 92%
des génomes bactériens référencés et
a été détecté expérimentalement chez
des espèces représentatives des grandes
familles (phyla) de bactéries. S’il n’est pas
sûr que Rho soit essentiel pour toutes ces
bactéries, nombre d’entre elles (dont beaucoup d’entérobactéries pathogènes) sont
sensibles à la bicyclomycine. Cet antibiotique naturel, isolé de bactéries du sol Japonais, se fixe à Rho et l’empêche d’hydrolyser l’ATP. Chez ~5% d’espèces provenant
d’écosystèmes variés, Rho contient des
mutations lui conférant une résistance à la
bicyclomycine. Cette résistance est souvent
liée à une moins bonne interaction (baisse
d’affinité) entre la
bicyclomycine et le facteur Rho muté. Dans
certains cas, le changement paraît plus
profond et concerner directement le mécanisme d’action de Rho. Chez Mycobacterium tuberculosis, par exemple, Rho semble
être capable de démolir le complexe de
transcription sans requérir l’hydrolyse d’ATP.
Utilise-t-il une source d’énergie alternative
dans ce cas ? Les fonctions biologiques et
de moteur moléculaire de Rho ont-elles été
dissociées chez cette espèce ? Telles sont
les questions auxquelles l’équipe du CBM
cherche maintenant des réponses. Celles-ci
seront utiles pour comprendre le fonctionnement des ARN hélicases et des moteurs
moléculaires en général mais également
pour rechercher des alternatives à la bicyclomycine. Les propriétés pharmacologiques de cette dernière ne sont malheureusement pas optimales et son usage
est limité au domaine vétérinaire. Mieux
comprendre la « mécanique » du moteur
Rho devrait faciliter la mise au point d’antibiotiques synthétiques capables de déréguler la physiologie bactérienne encore plus
efficacement et sans danger pour l’homme.
Marc BOUDVILLAIN < CBM
[email protected]
http://cbm.cnrs-orleans.fr
27
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
Chimie
Chimie
Wordle de mots clés utilisés en informatique moléculaire appliquée à la
recherche pharmaceutique
Illustrations
de la Chémioinformatique
La découverte de nouvelles molécules bioactives
L’informatique moléculaire,
dans la course aux nouveaux candidats médicaments
L’équipe de Bioinformatique Structurale et Chémoinformatique de l’Institut de Chimie Organique et Analytique
(ICOA, UMR 7311 CNRS/Université d’Orléans) développe et exploite les outils d’informatique moléculaire pour
accélérer la conception de nouveaux candidats médicaments dans plusieurs domaines thérapeutiques.
28
Plusieurs définitions de l’informatique
moléculaire existent. Dans le contexte de
la recherche pharmaceutique, elle utilise
différentes méthodes informatiques afin
d’analyser, de comprendre et de prédire des
propriétés physiques, chimiques ou biologiques de petites ou grosses molécules.
Elle regroupe donc plusieurs disciplines
comme la bioinformatique structurale, la
chémoinformatique, la modélisation moléculaire, la visualisation moléculaire, etc.
Elle s’appuie sur un ensemble d’outils informatiques aidant les chimistes médicinaux
et informaticiens (ou computationnels),
les bioinformaticiens, les biologistes et les
biochimistes à mieux concevoir des molécules d’intérêt thérapeutique. L’ensemble
de ces outils est très utilisé aujourd’hui en
recherche de molécules bioactives, que ce
soit dans les entreprises pharmaceutiques
ou dans les laboratoires académiques.
Une synergie scientifique et technologique
permet une recherche rationnelle efficace
dans la conception et le développement
de nouvelles entités moléculaires grâce
notamment à une accumulation exponentielle de données expérimentales, des ordinateurs de plus en plus performants et à de
nouveaux logiciels toujours mieux adaptés
aux besoins de la recherche appliquée.
L’étude de systèmes moléculaires
complexes
La première simulation d’une protéine
(BPTI) remonte à 1977, celle-ci contenait
environ 400 atomes et était étudiée isolée
pendant 9 picosecondes (1ps=10-12s).
Trente trois ans plus tard, une dynamique
moléculaire de la même protéine a été
simulée pendant 1 milliseconde et comportait plus de 5000 atomes permettant de
mieux comprendre la fonction de cette
protéine dans un milieu proche du milieu
biologique. Il est aujourd’hui possible d’étudier des systèmes moléculaires complexes
contenant des millions d’atomes pendant
des temps de simulations se rapprochant
des phénomènes biologiques réels. En
recherche pharmaceutique, ces outils facilitent la compréhension et la prédiction
de l’interaction dynamique d’une ou de
plusieurs petites molécules (ligand) avec des
cibles biologiques. Il est possible d’obtenir,
l’interaction d’un ligand dans un site actif
d’une protéine, comme avec les méthodes
d’ancrage moléculaire (docking), et aussi de
comprendre le procédé physique favorisant
ce ligand à se lier dynamiquement à ce site.
Avec des puissances de calculs encore plus
performantes, il serait envisageable d’utili-
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
ser ces outils dans une approche polypharmacologique, d’étudier plusieurs milliers
de molécules interagissant avec plusieurs
centaines de protéines et ainsi de sélectionner uniquement les meilleurs ligands.
Cette approche probablement réalisable
dans quelques années offrirait des horizons
entièrement nouveaux en favorisant l’identification rapide de nouvelles molécules
actives et sélectives et ainsi d’accélérer
la phase initiale de recherche de médicaments.
Les étapes de recherche pharmaceutique
comprennent deux phases successives,
une phase initiale de conception de médicament (Early Discovery) suivie par le développement clinique (Clinical Development).
Dans l’industrie pharmaceutique, seuls
3% des projets de recherche en moyenne
réussissent à délivrer un médicament sur le
marché. Parmi les raisons de ces échecs, l’efficacité clinique reste le plus gros obstacle
à franchir. Cependant le taux de succès
pendant la phase initiale est de 70% grâce
aux nouvelles technologies notamment la
chémoinformatique, la chimie computationnelle ou les approches de SBDD (Structure-Based Drug Design). La chémoinformatique utilise des moyens informatiques pour
résoudre des problèmes relatifs à la chimie.
Dans la découverte de nouvelles molécules
bioactives, elle est utilisée principalement
dans la prédiction de propriétés moléculaires physiques, chimiques ou biologiques
et dans la manipulation de grandes bases
de données de molécules. Il est possible
d’imaginer presque 1 milliard de molécules
« drug-like » à partir de 13 atomes lourds (C,
N, O, F, S) mais à ce jour 70 millions de molécules de toutes tailles ont été synthétisées.
« ...une discipline essentielle à la conception de
médicaments... »
Il paraît évident que l’espace chimique
découvert à ce jour ne couvre pas l’espace thérapeutique disponible. Plus de 11
millions de données biologiques ont été
aujourd’hui publiées dans ChEMBL pour un
peu plus de 1 million de molécules. Les outils
de chémoinformatique facilitent l’identification de composés outils (tool compounds)
modulant la fonction d’une protéine afin
de mieux dénouer les mécanismes biologiques et les voies de signalisation. En plus
de l’identification de nouvelles structures
moléculaires, ils permettent de prédire les
activités biologiques de nouvelles molécules afin de limiter les effets secondaires
rencontrés chez les patients.
Quelques succès
L’informatique moléculaire est une discipline essentielle à la conception de médicaments et elle participe aujourd’hui systématiquement aux projets de recherche pharmaceutique. Un des premiers médicaments
conçus à partir d’une approche SBDD est
le zanamivir. Cette molécule interagie avec
la protéine Neuraminidase impliquée dans
le développement du virus de la grippe. Le
losartan est un antagoniste des récepteurs de l’angiotensine II, approuvé
pour le traitement de l’hypertension. Il a été conçu à partir des
techniques de LBDD. D’autres
médicaments comme le zolmitriptan contre la migraine,
l’amprenavir contre l’infection par le VIH, le dorzolamide pour le traitement antiglaucomateux ont été conçus à
partir de logiciels de modélisation
moléculaire. Les différents outils
disponibles en informatique
moléculaire aident à concevoir
et sélectionner les meilleures
molécules bioactives pour les
valider sur des tests biologiques.
Et comme Neils Bohr (1885-1962,
prix Nobel de Physique) disait «
Prediction is very difficult, especially
about the future ».
Depuis septembre 2012, la nouvelle équipe
de Bioinformatique Structurale et Chémoinformatique de l’ICOA qui développe ses
activités autour de l’informatique moléculaire, vient renforcer les groupes de biochimie et de chimie organique et analytique
dans la conception de nouvelles molécules à
visées thérapeutiques. La stratégie actuelle
d’ « Open Innovation » mise en place par
les biotechs et les entreprises pharmaceutiques a permis de créer plusieurs collaborations de recherche public-privé dans le
domaine de l’informatique moléculaire. Ces
opérations « gagnant-gagnant » permettent
de travailler ensemble pour accélérer la
découverte de nouveaux candidats médicaments.
Pascal BONNET < ICOA
[email protected]
http://www.icoa.fr
Superposition de
structures cristallographiques
de protéines
kinases.
29
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
Histoire
Histoire
Jacob Rueff, De conceptu et
generatione hominis, dans
Gynaeciorum siue de Mulierum affectibus Commentarii (Tomus I), Basileae, per
Conradum Waldkirch, 1586,
p. 372.
Felix Platter, De mulierum partibus generationi dicatis, dans Gynaeciorum siue de Mulierum affectibus Commentarii (Tomus I), Basileae, per
Conradum Waldkirch, 1586, figura II.
La santé des femmes
à la Renaissance
Depuis l’Antiquité, les médecins se sont intéressés à la santé des
femmes, comme l’attestent plusieurs ouvrages de la Collection
Hippocratique. L’enseignement d’Hippocrate permettra aux
médecins de la Renaissance de mieux comprendre la cause des
souffrances des femmes.
Des ouvrages de référence
Le mâle est caractérisé par un corps
compact à la manière d’une étoffe serrée,
dit Hippocrate dans le traité Des Glandes,
alors que le corps de la femme est lâche,
spongieux, comme une laine. A l’origine
des maladies du corps féminin humide et
mou se situe un organe uniquement féminin, l’utérus (matrice), considéré comme
la cause des maladies des femmes : « La
matrice est la cause de toutes les maladies
[des femmes] ; car, de quelque façon qu’elle
se déplace hors de sa position naturelle, soit
qu’elle vienne en avant, soit qu’elle se retire,
elle rend malade » (Hippocrate, Des lieux
dans l’homme).
30
Ce sont ces caractéristiques du corps féminin, sa souplesse et la présence de l’utérus, qui incitent le médecin hippocratique
à adopter un regard particulier sur la santé
des femmes par rapport à celle des hommes
et, surtout, le responsabilisent durant la
consultation. Si, dit Hippocrate dans Maladies des femmes, d’un côté de nombreuses
femmes ne parlent pas par pudeur ou
ne reconnaissent pas la source de leurs
souffrances, de l’autre côté les médecins
commettent la faute de ne pas se renseigner correctement et de traiter la maladie
féminine « comme s’il s’agissait d’une maladie masculine ».
Peu connu au Moyen Âge, Des maladies
des femmes devient entièrement lisible à la
Renaissance. Mieux vaut toutefois rappeler
que l’intérêt des médecins pour la santé des
femmes ne disparaît pas au Moyen Age,
connoté par un savoir plutôt galénique,
puisque Galien avait traité du corps féminin dans plusieurs œuvres d’anatomie et
de physiologie. Un ouvrage comme celui
connu sous le nom de Trotula atteste bien
des compétences des médecins du Moyen
Âge pour les problèmes de stérilité, menstruations, prolapsus de la matrice, ulcères,
accouchements.
L’utilité du recueil de gynécologie
Gynaeciorum libri
A partir de la deuxième moitié du XVIe
siècle, un groupe de médecins décide de
se vouer à la santé des femmes. Le premier
pas consiste en la création d’un recueil,
connu sous le nom de Gynaeciorum libri,
dans lequel le médecin des femmes trouve
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
les textes les plus utiles pour soigner les
patientes atteintes d’une maladie féminine
ou en situation de grossesse et accouchement difficiles. De fait, à la base du recueil
demeure l’idée d’offrir la collection la plus
riche possible de textes gynécologiques de
l’Antiquité jusqu’à l’époque moderne. Dans
cette perspective, le recueil est publié à
trois reprises et, à chaque fois, il est enrichi
de nouveaux textes. Une stratégie éditoriale
précise semble se dessiner : la création d’un
savoir caractérisé par des compétences
spécifiques, dont l’histoire confirme l’utilité
et l’intérêt scientifique.
Dans la lettre de dédicace de la première
édition des Gynaeciorum libri (Bâle 1566),
qui inclut, entre autre, le Trotula, l’éditeur
Hans Kaspar Wolf s’interroge sur l’utilité
du recueil : pourquoi encore écrire sur les
femmes, alors qu’on le fait depuis l’Antiquité
? C’est justement la longue histoire et l’intérêt que suscite la médecine des femmes qui
justifie de poursuivre l’œuvre.
L’utérus et les maux des femmes
L’utérus, continue Wolf, exerce plusieurs
fonctions et est à l’origine de maladies
extrêmement cruelles, qui bouleversent
l’ordre habituel des thérapies. De là vient,
d’après Wolf, l’idée hippocratique que l’utérus est la cause des maladies des femmes :
« uteros morborum in mulieribus causam
existere ».
Quand, en 1586-1588, le médecin bâlois
Caspar Bauhin réédite les Gynaeciorum libri
à Bâle, le recueil s’enrichit de nombreuses
œuvres de la Renaissance, telles que le
traité sur l’engendrement de Jacob Rueff, la
traduction latine du traité sur la génération
d’Ambroise Paré et le traité sur les membres
du corps des femmes de Felix Platter, avec la
réimpression des images anatomiques d’André Vésale. Dans cette édition des Gynaeciorum libri, la pathologie s’accompagne de
l’anatomie et de la chirurgie :
le traité sur la génération de
l’homme d’Ambroise Paré offre un
riche éventail de représentations et descriptions des manœuvres et des instruments
chirurgicaux nécessaires en cas d’accouchement dystocique (difficile).
«...salutaire pour les
femmes et convenable
à la conservation et à la
propagation du genre
humain.»
Le portrait du médecin des
femmes
C’est dans l’esprit de sauver la vie des
femmes souffrantes que le médecin Israel
Spach trace le portrait du médecin des
femmes dans la préface de la troisième
édition des Gynaeciorum libri, publiée en
1597 à Strasbourg. D’après Spach, les maladies les plus cruelles et difficiles à soigner
sont les maladies des femmes : tumeurs,
môles, inflammations, cancers. Le médecin
doit saisir l’origine de ces maux et connaître
les problèmes qui se présentent pendant la
grossesse. Des femmes n’arrivent pas à retenir le fœtus dans leur ventre tout le temps
nécessaire à sa maturation et doivent l’expulser, en se rendant ainsi odieuses à leur
époux. Les douleurs atroces et effrayantes
de l’accouchement mettent en danger la vie
du bébé et de la femme. Un fœtus mort peut
enfin rester trop longtemps dans le ventre
de la mère ou la femme être enceinte d’un
monstre ; les menstruations peuvent être
irrégulières ou la femme stérile.
Que les médecins interviennent dans des
cas pareils, ce n’est pas seulement utile et
glorieux, mais salutaire pour les femmes et
convenable à la conservation et à la propagation du genre humain. C’est pour ces
raisons que des médecins, continue Spach,
ont consacré leur intelligence à l’étude des
maladies des femmes. Ces médecins ont
suivi la leçon hippocratique, en sachant
que l’erreur consiste à ne pas comprendre
la cause des souffrances des femmes et à
soigner les patientes comme si elles étaient
des hommes.
Le contexte historique ci-dessus esquissé
et les sources décrites dans cet article sollicitent, aujourd’hui encore, le monde scientifique. Le Centre d’Etudes Supérieures de
la Renaissance (CESR – UMR 7323 CNRS/
Université François Rabelais de Tours) contribue aux études sur l’histoire de la santé des
femmes en s’appuyant sur son patrimoine
de livres anciens et sur la présence de chercheurs spécialisés en histoire des sciences.
La recherche sur la relation entre les contenus des traités médicaux et les dossiers
des patientes permet de mettre en valeur
l’émergence de compétences spécifiques
et professionnelles dans la gynécologie et
l’obstétrique de la Renaissance.
Concetta Pennuto < CESR
[email protected]
http://cesr.univ-tours.fr
Moschion, De morbis muliebribus, dans Gynaeciorum hoc est De mulierum tum aliis, tum grauidarum,
parientium et puerperarum affectibus et morbis,
Basileae, per Thomam Guarinum, 1566, p. 2.
31
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
Histoire
Histoire
Le Château de Montfort,
forteresse datant des croisades au nord d’Israël.
© Thinkstock®
Aux origines du Pacifisme ?
contester la croisade au Moyen Âge
Contrairement à ce qu’on pourrait penser, les croisades n’ont pas fait l’unanimité à leur époque.
Cette « guerre juste » n’aurait pas suscité le consensus général que l’on s’accordait jusqu’à présent à reconnaître autour d’elle.
« Le Christ n’a pas versé son sang pour
acquérir Jérusalem, mais les âmes qu’il
faut sauver ! » Inattaquable, l’aphorisme
appartient à Adam, abbé du monastère
cistercien de Perseigne, dans le Perche.
Il découle d’une expérience dramatique.
En 1202, Adam part avec quelques chevaliers champenois pour la croisade. Or, la
plupart d’entre eux y perdent la vie ou la
liberté. Revenu au pays, dans le silence du
cloître où il prie et des champs qu’il laboure,
Adam réfléchit à la disparition inutile de ses
compagnons. Jérusalem a été conquise
par Saladin en 1187, et depuis les croisés
peinent à la reprendre. Leurs défaites à
répétition sont la mère de tous les doutes.
Elles instillent dans le cœur de bien des
Occidentaux l’amertume d’une question
lancinante. Dieu veut-il vraiment la croisade ? N’est-elle pas plutôt due à l’orgueil et
à la cupidité, à une soif de conquêtes incompatible avec l’enseignement des Évangiles
qui conseillent de « tendre la joue droite, si
on vous frappe sur la gauche » ?
Du sacrifice à l’absolution
32
La croisade est un pèlerinage en armes. Elle
engage ses participants dans un combat
pour mettre Jérusalem, but ultime de leur
voyage, sous domination chrétienne. La ville
est sainte. Lieu de la crucifixion de Jésus, elle
recèle le Saint-Sépulcre d’où il est ressuscité. Au Mont des Oliviers tout proche, il est
monté au ciel lors de son Ascension. C’est
là qu’il doit revenir pour la Parousie, son
second avènement, et instaurer un millénaire de paix et de prospérité. Cette perspective eschatologique encourage les croisés au départ. Ils souhaitent, en effet, hâter
le retour du Christ ou du moins faire pénitence et mourir dans les lieux mêmes où il
s’est incarné. Des foules enthousiastes de
chevaliers et de fantassins prennent ainsi le
chemin de la Terre sainte. Elles combattent
l’Islam et elles créent des royaumes latins
au Proche-Orient, qui résistent tout au long
des XIIe et XIIIe siècles. Leur guerre les sanctifie parce que les multiples sacrifices et
privations qu’elle comporte effacent leurs
péchés.
Les Templiers, des moines soldats
Si la croisade jouit d’une large acceptation,
il s’est toujours trouvé des esprits forts pour
la contester. Contrairement à l’idée reçue,
la société médiévale accepte le débat. Ses
intellectuels érigent même la scolastique,
où tout argument est opposé de façon
dialectique à son contraire, en méthode
par excellence. Ils soumettent également le
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
Nouveau Testament à une exégèse serrée.
Or, le Christ a bien interdit la violence au
chef des apôtres, qui voulait pourtant le
défendre des gardiens du Temple venus
l’arrêter en vue de sa crucifixion : « Pierre,
remets ton épée dans le fourreau : celui qui
tue par le fer périra par le fer ! », lui avait-il
dit.
Archidiacre d’Oxford, Gautier Map (†1209)
commente cette phrase pour critiquer les
Templiers, c’est-à-dire des moines soldats,
oxymoron au regard du droit canonique
qui interdit de tout temps aux religieux la
souillure du sang versé : « À Jérusalem,
Pierre a appris à chercher la paix par la voie
de la patience ; je ne sais pas qui a appris
aux Templiers à repousser la violence par la
violence. Ils prennent le fer et ils périssent
par le fer […], alors que le Christ refusa de
commander des légions d’anges quand
Pierre frappa son coup. » Gautier conclut
sur le recul face à Saladin des royaumes
latins de Terre sainte, même défendus par
les ordres militaires. Il remarque, en contrepartie, que « les apôtres avaient gagné
Damas, Alexandrie et une grande partie du
monde par la parole et non pas par le glaive
qui depuis a tout perdu ».
Siège de Jérusalem par l’armée de Godefroi de Bouillon.
Cliché CNRS-IRHT, Bibliothèques d’Amiens Métropole, Ms 483, f. 54v
Un combat pour la conversion
Le christianisme ne saurait se répandre
que par la prédication. Fondés à la fin du
XIIe siècle, les Franciscains et les Dominicains prêchent partout la conversion.
Certains d’entre eux apprennent l’arabe
pour s’adresser aux musulmans. François
d’Assise lui-même rencontre, en 1219,
le sultan d’Égypte auquel il propose le
baptême. Al-Kâmil l’écoute avec attention et
respect. S’il n’est pas convaincu, il demande
à François de prier pour lui afin de trouver
la vraie foi. Dans le sillage de son fondateur,
le franciscain anglais Roger Bacon (12201292) préconise un dialogue sincère avec
les musulmans. Il sait qu’ils « conservent
dans leur religion beaucoup de paroles des
Évangiles » et qu’ils tiennent le Christ pour
l’un « des plus grands prophètes, né de la
Vierge Marie sans intervention d’homme,
mais par le seul souffle du Saint-Esprit ».
Sur ces bases, une entente est possible.
Mais la croisade risque, selon Bacon, de
tout gâcher : « Mener la guerre contre les
sarrasins ne sert à rien […]. Les incroyants
ne se convertissent pas pour autant. Au
contraire, ils sont tués et envoyés en enfer.
Les survivants et leurs enfants développent
davantage de haine contre la foi chrétienne,
dont ils s’éloignent à jamais. Ils sont encore
plus déterminés à nuire aux chrétiens. C’est
pourquoi, un peu partout, nous avons rendu
impossible la conversion des sarrasins. »
La condamnation de la croisade est sans
appel.
amour, toutes les larmes de leurs yeux et
tout le sang de leur corps, ainsi que vous
l’avez fait par amour envers eux. »
Le prêche plutôt que la guerre
Autour de 1300, nombreux sont les Franciscains qui préconisent la prédication en
terre d’Islam, et s’il le faut le martyre, au
détriment de la croisade. Ils ont le vent en
poupe. Ce n’est pas du tout désormais le
cas des Templiers, dont l’opinion publique
ne comprend plus la raison d’être au lendemain de la chute de Saint-Jean d’Acre
(1291). Les calomnies que diffuse Philippe
le Bel, roi de France, à leur encontre leur
valent la dissolution et, pour certains, le
bûcher. La croisade n’a jamais fait l’unanimité parmi les chrétiens.
Contemporain de Roger Bacon et proche
des Franciscains, Raimond Lulle (12321316) préfère, comme lui, la mission aux
armes. Il fonde même une école de langues
à Majorque, son île natale, où des frères
étudient l’arabe.
« ...le martyre, au détriment de la croisade. »
Il adresse une prière fort pacifiste au Christ :
« Seigneur, la Terre sainte ne doit être
conquise autrement que de la façon dont
vous et vos apôtres l’avez conquise : amour,
prières, versement de larmes et effusion de
son propre sang. Seigneur, le Saint-Sépulcre
et la Terre sainte d’outremer se laissent
mieux prendre par la prédication que par
la force des armes. Que les saints chevaliers deviennent auparavant religieux, qu’ils
se dotent du signe de la croix et qu’ils se
laissent remplir de la grâce du Saint-Esprit
afin de prêcher la vérité de votre Passion
aux infidèles. Qu’ils versent, par votre
Martin AURELL < CESCM
[email protected]
http://cescm.labo.univ-poitiers.fr
33
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
© D’après « La Suisse du Paléolithique à l’aube du Moyen-Age, VI, Le haut
Moyen âge, 330 », dessin Benoît Clarys, copyright by Archéologie Suisse.
Histoire
Histoire
Évocation d’une inhumation à l’époque mérovingienne.
Les tombes mérovingiennes sont richement dotées d’éléments de parure
en verre : perles, éléments de décors de boucles, bijoux en cloisonné
Plaque-boucle mérovingienne cloisonnée (cuivre doré et verre)
de la nécropole de Saint-Laurent-des-Hommes. (Dordogne,
fouille INRAP, Christian Scuiller, Dominique Poulain).
Des résultats d’analyse obtenus sur des perles en verre retrouvées dans des tombes d’époque mérovingienne témoignent de l’existence d’un commerce à longue distance entre l’Océan Indien et le Monde
Méditerranéen, entre la fin du 5ème et le début du 6ème siècle de notre ère. Ils apportent de nouveaux éléments sur les échanges internationaux et illustrent la précocité de la mondialisation des échanges via les
différentes routes de la soie.
Les premiers objets en verre ou
l’art d’imiter la nature
Comme la céramique, la faïence, ou le
métal, le verre est un matériau issu des
arts du feu. Il a probablement été inventé
au cours du 3ème millénaire avant notre ère,
mais sa production en grande quantité n’est
attestée qu’à partir du milieu du 2nd millénaire avant notre ère, en Mésopotamie et
en égypte.
34
Les perles et les éléments de décor sont
parmi les premiers objets produits à partir
de cette nouvelle matière. Dès le début de
son épopée, le verre a servi à remplacer et
imiter d’autres matériaux plus rares, plus
précieux ou plus difficiles à travailler. En
effet, par rapport aux gemmes, au corail
ou à l’ambre qui sont seulement taillés ou
polis (plus ou moins facilement selon leur
dureté), le verre est coloré, moulé, étiré,
tourné, mais aussi façonné à volonté. Une
palette infinie de polychromies et de formes
peut ainsi être obtenue en associant des
verres de différentes couleurs.
L’ingéniosité des artisans verriers a même
permis à ce matériau d’imiter l’or ou
l’argent. Ce n’est qu’au cours de l’antiquité
que cette matière sera aussi appréciée pour
sa transparence et sera utilisée en architecture comme vitrage.
Les traditions verrières diffèrent par l’utilisation de recettes et de matières premières
différentes, selon les aires de productions
et les époques (Proche et Moyen Orient,
Asie du Sud et du Sud Est, Monde Méditerranéen… ). L’analyse de la composition
du verre permet donc d’identifier sa provenance et ainsi d’étudier son cheminement.
«...la perle est aussi un
objet magique.»
La perle : à la fois élément de
parure, symbole protecteur et
objet d’échange
Objet de parure de forme et d’aspect variés,
la perle est aussi un objet magique. En tant
qu’amulette, elle protège du mauvais sort
ou des aléas des voyages, et guérit même
certaines affections. Suivant les peuples et
les époques, certaines couleurs sont considérées comme bénéfiques ou néfastes.
La perle est aussi utilisée pour confectionner des vêtements ou des ornements
spécifiques, insignes de pouvoirs temporels ou magiques, et être ainsi associée à
certains rituels. Dès le second millénaire
avant notre ère, les perles fabriquées au
Proche et Moyen-Orient arrivent en Europe
occidentale, où elles servent de monnaie
d’échange avec les populations locales,
Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013
contre du minerai d’étain et divers autres
produits. La plus ancienne épave connue
contenant des jarres pleines de perles de
verre est un bateau chypriote ou levantin
daté du 14ème siècle avant notre ère. Elle a
été retrouvée au large de la Turquie (Ulu
Burum). Une autre épave, pleine de perles
de verre, et datée du 16ème siècle de notre
ère, était immergée au large du Sultanat de
Brunei. Des cargaisons de perles ont aussi
été extraites des épaves des vaisseaux de
La Pérouse (La Boussole et l’Astrolabe, 18ème
siècle).
De tous temps et sur
tous les continents, les
perles ont donc été utilisées comme cadeaux ou
comme objets de troc.
Des milliers de petites
perles découvertes
dans des tombes
mérovingiennes
Les inhumations ont
toujours constitué une
source importante de
renseignements pour
connaître la vie quotidienne des populations.
Dans de nombreuses civilisations, le défunt est en effet
inhumé avec ses vêtements et un matériel
funéraire varié, symboles de son activité et
de son statut social. Les tombes mérovingiennes sont à ce titre richement dotées,
et sont une source d’enseignement sur les
pratiques artisanales et commerciales de
ces populations. Les éléments de parure
et plus spécialement ceux en verre y sont
particulièrement bien représentés : on les
retrouve sous forme de perles, d’éléments
de décors de boucles de ceinture et de
bijoux en cloisonné.
Des fouilles récentes de tombes mérovingiennes en Dordogne, Charente, Bretagne,
mais aussi en Belgique (Wallonie) ont mis en
évidence la présence en très grands nombre
de minuscules petites perles en verre étiré
(jusqu’à plus de 4000 à Saint-Laurent-desHommes, en Dordogne). La typologie de
ces petites perles, le plus souvent monochromes (proches en taille des perles de
rocaille) est très différente de celle de la
production perlière mérovingienne traditionnelle, plutôt constituée de perles polychromes de taille plus importante.
L’analyse, à la fin de
l’année 2012, des
minuscules perles
en verre (1 à 2 mm
de diamètre) de la nécropole de SaintLaurent-des-Hommes a révélé bien des
surprises. La plupart des objets en verre de
l’époque mérovingienne sont en effet soit
produits à partir de verre brut provenant du
Proche Orient, soit à partir du recyclage de
verre antique (lui aussi originaire du ProcheOrient). Mis à part quelques recettes de
coloration originales, ils présentent donc la
même composition de base que les verres
de l’Antiquité. Les petites perles ont une
composition totalement différente de celles
des verres produits à cette époque dans
le monde méditerranéen. Elles sont fabriquées à partir d’un verre riche en alumine,
semblable à celui produit durant cette
période en Asie du Sud (Inde et Sri Lanka).
Leur typologie est elle aussi identique à
celles des perles retrouvées par milliers le
long des côtes de l’Océan Indien. Ces minuscules perles ne peuvent donc que provenir
de cette région.
Des produits exotiques acheminés
par les routes de la soie
Cette provenance lointaine, inédite pour
des perles en verre, est en parfait accord
avec les résultats obtenus, pour cette
époque, par d’autres équipes de
recherche sur les gemmes (grenats),
les textiles (soie) ou les épices. Les
voies commerciales maritimes entre
les mondes méditerranéen et indien
sont décrites dans de nombreux textes,
dont le Périple de la mer Erythrée (manuscrit anonyme du 1er siècle) ou la Topographie chrétienne (Cosmas Indicopleustès, 6ème siècle). Ces perles faisaient
donc probablement partie des
cargaisons de produits qui arri-
vaient d’Orient et d’Extrême Orient via la
mer Rouge ou le golfe arabo-persique et les
comptoirs commerciaux du Proche-Orient.
Les recherches en cours au Centre ErnestBabelon de l’Institut de Recherche sur les
Archéomatériaux* ont permis de localiser ce type de perles dans des fouilles
anciennes de tombes mérovingiennes
situées de la Belgique au Nord de l’Espagne.
Toutes ces sépultures sont datées entre la
fin du 5ème siècle et le milieu du 6ème siècle.
Au cours de la seconde moitié du 6ème siècle,
ce type de perle semble disparaître. Il faudra
attendre le 7ème siècle pour que d’autres
perles asiatiques, d’une typologie très différente, fassent leur apparition en Europe
du Nord (Danemark, Suède, Allemagne).
Celles-ci arrivent probablement par les
voies commerciales qui empruntent les
fleuves russes et les routes terrestres de la
soie. Là encore, d’autres objets, comme la
statue de Bouddha de l’île suédoise d’Helgö
(7ème siècle) ou des cauris, témoignent de
la persistance de cette mondialisation des
échanges.
Bernard GRATUZE< IRAMAT
[email protected]
Constantin Pion < CReA-Patrimoine ULB,
Bruxelles
James Lankton < Institute of Archaeology
UCL, Qatar
avec Torben Sode, Conservateur au
Danemark et de nombreux archéologues
(SRA, INRAP, Archéosphère, Hadès …)
*UMR 5060 CNRS, Université tech. Belfort-Montbeliard,
Université Bordeaux 3, Université d’Orléans, Ministère
de la Culture et de la Communication, CEA, INRAP.
35
Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013
GD 2014 - 20ème conférence internationale sur les décharges
électriques et leurs applications
6-11 juillet 2014
Orléans - France
Conception graphique : Linda Jeuffrault - CNRS ComDCLPC
2014
Orléans
Plus d’info : http://gd2014.sciencesconf.org/
Délégation Centre Limousin
Poitou-Charentes
www.dr8.cnrs.fr