De la Dématérialisation à l`intelligence économique
Transcription
De la Dématérialisation à l`intelligence économique
De la dématérialisation à l’intelligence économique � De la dématérialisation à l’intelligence économique Ce document est issu des conférences et débats organisés par FedISA le 29 janvier 2008 En partenariat avec De la dématérialisation à l’intelligence économique La synthèse des interventions a été assurée par la rédaction de Best Practices Systèmes d’Information www.bestpractices-si.fr © Best Practices International, 2008 37, rue du Gué – 92500 Rueil-Malmaison © FedISA, 2008 55, avenue Victor Hugo – 75116 Paris Le Code de la propriété intellectuelle interdit les copies ou reproductions destinées à une utilisation collective. Toute représentation ou reproduction intégrale ou partielle faite par quelque procédé que ce soit, sans le consentement des auteurs et des éditeurs, est illicite et constitue une contrefaçon sanctionnée par les articles L.335-2 et suivants du Code de la propriété intellectuelle. Impression : Studio Pixart srl, via Brunacci 7, 30175 Marghera - Italie 4 | De la dématérialisation à l’intelligence économique SOMMAIRE ENVIRONNEMENT DE CONFIANCE page 7 Dématérialisation et archivage électronique : état et développement du marché, stratégies des acteurs Jean-Marc Rietsch, Président de FedISA page 19 Sécurité et stockage : les questions-clés Cyril Van Agt, Responsable avant-vente Grands Comptes, NetApp page 23 Preuve électronique et système d’information Eric Caprioli, Avocat à la Cour page 31 Imprimerie Nationale : de l’impression de papier à une plate-forme de confiance Loïc De La Cochetière, Président directeur général de l’Imprimerie Nationale DéMATéRIALISATION ET SYSTèME D’INFORMATION page 41 Sécurité et évolution des systèmes d’information Philippe Rosé, Rédacteur en chef de Best Practices Systèmes d’Information page 51 De la problématique de l’archivage dans une grande entreprise… Didier Lambert, DSI d’Essilor, Président du Cigref (Club informatique des grandes entreprises françaises) SéCURITé ET INTELLIGENCE éCONOMIQUE page 57 Identification et authentification des personnes Jean-Marie Giraudon, Vice-Président de Gemalto page 63 Protection du patrimoine informationnel : enjeux et stratégies d’intelligence économique Alain Juillet, Haut responsable à l’intelligence économique | 5 De la dématérialisation à l’intelligence économique L’intervenant Jean-Marc Rietsch est ingénieur Civil des Mines, expert en archivage électronique et Président de FedISA (Fédération Européenne de l’ILM du Stockage et de l’Archivage). Il a débuté sa carrière professionnelle par le développement logiciel et l’offre de services pour les PME-PMI. En 1993, il oriente sa carrière vers la sécurité et plus particulièrement la sauvegarde des données informatiques et dépose un brevet sur le sujet. En 2001, Jean-Marc Rietsch participe au lancement du premier tiers archiveur en France. Il est également : - Membre fondateur du CoRef (Confiance Référencement) et ancien expert au CoDil ( Comité Directeur du Label) qui a été remplacé par le CoRef. - Membre du groupe de travail animé par le Forum des Droits sur Internet ayant produit un rapport paru en décembre 2005 avec des recommandations concernant « La conservation électronique des documents ». - Instigateur et coauteur de l’ouvrage « L’archivage électronique à l’usage du dirigeant » en collaboration avec le Cigref. - Auteur de « Dématérialisation et archivage électronique, mise en œuvre de l’ILM (Information Lifecycle Management) » paru chez Dunod en novembre 2006. www.fedisa.eu 6 | De la dématérialisation à l’intelligence économique Dématérialisation et archivage électronique : état et développement du marché, stratégies des acteurs Par Jean-Marc Rietsch La dématérialisation correspond, dans l’esprit de beaucoup, à la numérisation de documents existants. Cela correspond, bien sûr, à la réalité, mais ce n’est pas suffisant. La dématérialisation concerne aussi, et de plus en plus, la mise en œuvre de processus complets, sans aucun papier (par exemple pour la téléTVA, le téléIR, les factures, ...). De même, l’archivage électronique ne constitue pas une simple transformation de l’archivage traditionnel papier en électronique. Cela va beaucoup plus loin, car cela concerne toute l’organisation du cycle de vie de l’information et correspond ainsi à une nouvelle organisation des données dans l’entreprise. L’archivage électronique traite essentiellement des données d’origine électronique. L’archivage électronique ne doit pas être vécu comme une contrainte, un mal nécessaire, mais doit favoriser une nouvelle organisation de l’information pour une plus grande efficacité dans l’entreprise. Gérer des volumes croissants d’informations On observe une très forte croissance des volumes d’informations. Par exemple, pour les e-mails, les cabinets d’études estiment que le volume de mails a augmenté de 350 % au cours des cinq dernières années, passant de 10 milliards à 35 milliards (IDC). Selon Gartner, le volume de mails va augmenter au moins de 30 % par an. L’ensemble des entreprises devrait archiver 7 000 pétaoctets de mails à horizon 2010. Pour Forrester, les grandes entreprises génèrent de l’ordre d’un million d’e-mails par jour. Enfin, selon Radicati Group, le nombre moyen, pour un usage professionnel | 7 De la dématérialisation à l’intelligence économique (envoi/réception), est de 84 e-mails (utiles) par jour qui nécessitent 10 Mo de stockage. Ces chiffres sont colossaux. Que représente un petaoctet ? 100 mégaoctets (Mo) représentent le contenu d’une pile de livres d’un mètre de haut, 2 téraoctets (1012 octets) correspondent à tous les ouvrages d’une bibliothèque universitaire et 2 pétaoctets (Po) aux fonds de toutes les bibliothèques universitaires des Etats-Unis ! Parallèlement, on observe une croissance des exigences de conformité, de plus en plus de lois et réglementations concernent les données numériques. Il est en effet nécessaire d’encadrer la dématérialisation et dans tous les domaines : la finance (SOX, Bâle II, SEC 17a-4, LSF, règlement CRBF 97...), la santé et la pharmacie (Health Insurance Portability and Accountability Act (HIPAA), CFR 21 part 11...) ou les données personnelles (CNIL...). Conséquence : la croissance des risques est, elle aussi, une tendance lourde, avec des menaces qui se manifestent par exemple par des pertes d’informations, des usurpations d’identités, des accès non autorisés, des falsifications ou des destructions de documents... Cette liste n’est pas exhaustive alors que l’information est la richesse même de l’entreprise ! Emergence de l’electronic discovery L’electronic discovery ou ediscovery correspond à tout un processus (recherche, identification, sécurisation) pour lequel une donnée électronique doit potentiellement être recherchée avec l’intention de l’utiliser comme un élément de preuve au cours d’un litige. Cela peut paraître simple de retrouver une information numérique : mais si une entreprise gère plusieurs centaines de millions de mails et que la réglementation l’oblige à retrouver une information en moins de trois jours, on perçoit l’ampleur de la tâche, si elle n’est pas anticipée. 8 | De la dématérialisation à l’intelligence économique On observe également une rupture du document numérique avec le support. Dans le cas d’un document traditionnel, l’inscription est indissociable de son support et est directement perceptible (intelligible) par la lecture à l’œil, comme sur une feuille de papier. Dans le cas d’un document numérique, qui combine une structure, des données et une mise en forme spécifique, on a toujours besoin d’un objet (support) mais qui n’est plus suffisant pour la lecture directe. Il est en effet nécessaire d’avoir recours à un processus capable de traduire, en fonction du format de conservation utilisé, la suite d’octets enregistrée sur le support afin de la rendre compréhensible à l’être humain. Ainsi, la donnée conservée n’est pas celle que l’on voit : il faut trier les octets pour les rendre intelligibles à l’être humain qui en a besoin le moment venu. La notion même de support se complexifie et devient ambiguë : est-ce par exemple le fichier d’origine, l’outil matériel qui l’héberge ou la surface de l’écran où il s’affiche ? Nous sommes donc contraints d’effectuer cette dissociation entre le support et le contenu informationnel. C’est d’autant plus vrai qu’une donnée mise en archivage sur un support spécifique sera sûrement amenée à changer de support au cours du temps. C’est d’ailleurs un paradoxe de devoir conserver indéfiniment des informations sur des supports qui seront obsolètes très rapidement, souvent à un horizon de trois ans. I comme information, L comme cycle de vie, M comme management La prise en compte du cycle de vie de la donnée (ou ILM : Information Lifecycle Management) est donc nécessaire. On s’intéressera ainsi au I comme Information (professionnelle ou personnelle, transactionnelle ou figée), au L comme cycle de vie (Lifecycle) et au M comme management. Les données peuvent être classifiées en deux catégories : les données transactionnelles et le contenu figé. Les données transactionnelles nécessitent une mise à jour continue, des écritures/lectures de petits blocs fréquentes, et se caractérisent par une faible latence et une haute performance, par exemple avec les bases de données, les solutions ERP, les applications financières, de gestion de ressources humaines. Le contenu figé regroupe des données qui ne sont plus modifiables après la création et qui sont le plus souvent des données de références, formées par des blocs physiques non structurés, ainsi qu’une immuabilité et une authenticité du contenu (par exemple pour les contenus audio, vidéo, les images, les documents et images chèques ou les données d’archives). | 9 De la dématérialisation à l’intelligence économique Pour les données transactionnelles, les solutions sont mieux gérées par les DAS, SAN et NAS. Pour le contenu figé, les solutions sont mieux gérées par les disques/bandes WORM, le Content Addressed Aware Storage (CAS). 10 | De la dématérialisation à l’intelligence économique En fait, le cycle de vie d’une information comprend trois périodes. La première commence à la création de l’information et se termine lorsque la donnée est figée. On notera que les e-mails sont figés dès leur création, on ne fait qu’ajouter des informations au contenu d’origine. La seconde période, le « record management », concerne les données que les entreprises ont obligation de conserver. Enfin, la troisième période est l’archivage patrimonial qui concerne 1 à 5 % des informations dans les entreprises (beaucoup plus pour le secteur public). La difficulté est de maintenir la chaîne de confiance pendant toute la durée de conservation nécessaire car la qualité et la sécurité de cette chaîne ne vaut que par le maillon le plus faible. Le management consiste à avoir une vue d’ensemble de l’information produite et archivée, sous l’angle des volumes et par une approche qualitative. Il s’agit d’évaluer les risques par rapport aux obligations de conformité (compliance) en interne, et, bien sûr, de maîtriser les coûts (rapport coût/efficacité). Il ne s’agit pas de se faire plaisir mais d’avoir un état d’esprit de type ROI (retour sur investissement). Le processus d’archivage électronique est toutefois soumis à un certain nombre de contraintes, qui s’expriment dans les domaines techniques, réglementaires et sécuritaires. Les contraintes techniques concernent quatre éléments : - les formats logiques, - les supports (formats physiques), - les migrations, - la signature électronique. Concernant les formats, il faut toujours être capable d’interpréter les éléments conservés afin de les rendre intelligibles. Il existe différents types de formats : standards (normalisés, utilisation libre), ouverts (spécifications publiques), propriétaires (définis par une entreprise privée et soumis à des droits), ou fermés (spécifications secrètes). Il est fortement déconseillé d’utiliser les formats fermés : il faut en effet toujours être capables d’interpréter les éléments archivés. | 11 De la dématérialisation à l’intelligence économique Les supports WORM Les supports WORM (Write Once, Read Many) sont des dispositifs matériels et/ou logiciels garantissant une écriture non modifiable dans le temps. Autrement dit, on écrit une fois, on relit autant de fois que l’on veut et l’on ne peut plus effacer et/ou modifier le contenu. Notons qu’une technologie émergente (WORM Compliant) permet un effacement d’un enregistrement une seule fois sur support UDO (Ultra Density Optical). Ainsi, on écrit une fois, on lit autant de fois que désiré, mais on peut effacer l’enregistrement une seule fois. En effet, on ne peut pas conserver sans oublier : il y a des obligations de destructions. Si on dispose de supports contenant énormément d’informations, pour supprimer une information spécifique, il faut recopier toutes les autres : il est plus facile d’avoir un accès direct pour faciliter l’effacement. Anticiper les migrations Les migrations sont indispensables, compte tenu de l’évolution technologique. C’est la réponse au paradoxe de l’archivage électronique : conserver pendant de longues périodes en utilisant des supports obsolètes. Il faut savoir migrer, ne serait-ce que compte tenu des évolutions technologiques. Mais ces migrations doivent être anticipées et planifiées. Il existe deux grands types de migrations : au niveau des supports physiques, sans grande conséquence, ou au niveau du format logique. Dans ce cas, c’est plus délicat, car l’intégrité de l’information peut être affectée. La signature électronique permet d’identifier le signataire et de garantir l’intégrité du document traité au sens de l’intégrité technique (et non intégrité de l’information). Il est souvent impossible de changer de format voire de version d’un même format sans perdre la visibilité de la signature. Cela nécessite donc de conserver des informations complémentaires destinées à pouvoir vérifier la signature dans le temps ou d’avoir recours à d’autres processus complémentaires amonts. Quelles valeurs légales ? Les contraintes légales regroupent les obligations relatives à l’archivage ainsi que les conditions de la valeur probante. Les principales obligations légales d’archivage 12 | De la dématérialisation à l’intelligence économique résultent de la loi du 3 janvier 1979 sur les archives (Code du patrimoine), la loi du 13 mars 2000 portant adoption de la preuve aux technologies de l’information et relative à la signature électronique, et la loi du 21 juin 2004 pour la confiance dans l’économie numérique. Pour obtenir une valeur probante, il faut respecter deux conditions. La première est le respect des conditions légales prescrites dans les textes, notamment l’intelligibilité : peu importe la forme de l’information, l’essentiel étant qu’elle soit restituée de façon intelligible par l’homme et non par la machine. Il faut également respecter l’identification de l’auteur (prendre en compte le cycle de vie très tôt au moment où le document se fige), garantir l’intégrité (au sens juridique du terme, sur le contenu informationnel pour prouver sa non modification en cas de changement de support ou de changement de format, d’où la nécessité de tracer) et assurer la pérennité, base de l’archivage électronique car il s’agit de respecter les durées de conservation prescrites par les textes, fonction de la nature du document et des délais de prescriptions. Seconde condition : la fiabilité du procédé technique d’archivage. Elle peut s’effectuer par un contrôle par le juge de la conformité du système d’archivage avec les normes techniques en vigueur ou les bonnes pratiques, par une labellisation ou le recours à des experts informatiques. Les contraintes sécuritaires relèvent des mécanismes classiques utilisés pour protéger l’information : - identification, authentification, - confidentialité, contrôle d’accès, - disponibilité, communication, - accessibilité, habilitation, - intégrité, - pérennité, durée de conservation, - traçabilité, conservation des actions. Assurer la cohérence de la politique d’archivage Comment élaborer une politique d’archivage efficace ? La politique d’archivage répond à une nouvelle organisation de l’information. La première étape consiste à qualifier l’information. La seconde porte sur l’optimisation du processus d’archivage et l’introduction de différents niveaux de services. La troisième étape fait intervenir les tiers de confiance et la notion d’audit afin de vérifier la conformité du système mis en place par rapport aux objectifs fixés dans la politique. | 13 De la dématérialisation à l’intelligence économique La qualification de l’information repose sur l’identification des métadonnées, donnés complémentaires qui suivent les données de base pour gérer l’information, selon plusieurs critères : de contexte, de source, de contenu, de forme, de format (savoir quel format), de sensibilité, d’accès et de durée de vie. L’information doit également faire l’objet d’un accompagnement dans son cycle de vie (la donnée est vivante), en fonction de l’évolution de son caractère vital-critique (face aux risques de perte), de l’évolution de la confidentialité (à la baisse ou à la hausse). Il importe également de gérer la durée de conservation (qui n’est pas fixe), notamment en différenciant la validité pour l’action ou pour la preuve, la destruction à terme (CNIL), la prolongation ou la révision des données, ainsi que la réactivation par suite d’une évolution de la législation ou d’un contentieux Métadonnées d’informations Index Format Origine Métadonnées de gestion Durée de conservation Protection Migration Le document d’origine dispose ainsi d’un contenu informationnel auquel s’ajoutent des métadonnées complémentaires (index, format) et de gestion (durée de conservation, protection, migration, quand doit-on détruire, combien de temps). Il faut dès lors respecter cette nouvelle contrainte de devoir alimenter les métadonnées au fur et à mesure de l’évolution du document, comme par exemple penser à compléter les propriétés d’un document Word. L’organisation autour de la politique d’archivage se matérialise par une courbe en double « S ». La politique d’archivage est au centre, et tient compte de toutes évolutions législatives et réglementaires. Elle tient compte également du fait que quand, d’un point de vue technique, le système d’archivage est en place, il faut vérifier régulièrement qu’il est conforme aux objectifs fixés. Ce que beaucoup d’entreprises oublient trop souvent. Dès qu’un changement intervient, il faut avoir la garantie que 14 | De la dématérialisation à l’intelligence économique le système est toujours conforme. Autre avantage : la politique d’archivage permet de fédérer dès le départ l’ensemble des intervenants qui sont concernés : ce n’est pas seulement la DSI, le RSSI, les métiers, les juristes, les archivistes, mais toutes ces fonctions qui doivent travailler ensemble. La politique d’archivage doit être bâtie de façon collaborative, avec des échanges et une parfaite compréhension de ce que chacun doit faire en fonction de ses responsabilités. Une politique d’archivage n’a toutefois pas besoin de se matérialiser par un document de plusieurs centaines de pages, il importe de demeurer pragmatique et de s’aligner sur la politique de sécurité de l’entreprise. Organisation autour de la politique d’archivage Le rôle central des tiers de confiance Les tiers de confiance s’inscrivent dans plusieurs catégories : - les certificateurs (autorité, opérateur) dont la mission est de vérifier la validité des certificats électroniques, - les horodateurs (certification des dates et des heures), - les archiveurs, pour l’intégrité et la pérennité des données, - les autorités de gestion de preuve, qui fournissent des attestations de preuve destinées à prouver la validité d’une signature électronique dans le temps. En termes d’organisation générale des tiers de confiance, on retrouve les composantes suivantes : autorité, opérateur, contrôle audit et autorité annexe. L’AGP (Autorité de gestion de preuve) vérifie un document signé électroniquement, édite une attestation, après avoir vérifié l’intégrité et la validité des certificats, la renvoie au demandeur, et la conserve. Cette attestation est conservée de façon sécurisée, en tenant compte de | 15 De la dématérialisation à l’intelligence économique l’obsolescence cryptographique. En effet, les algorithmes d’aujourd’hui auront probablement été cassés dans dix ans, il faut donc anticiper pour garantir l’intégrité même si le document est signé avec un algorithme qui se révélera, avec le temps, fragile. Intérêt du dépôt électronique notarial Outre ceux mentionnés plus haut, il existe d’autres types de tiers de confiance qui existaient avant la dématérialisation. Prenons l’exemple du dépôt électronique notarial. Le notaire est un officier public délégataire du Sceau de l’État (les actes qu’il signe ont valeur de preuve). C’est le tiers de confiance par excellence (tiers rédacteur, tiers d’archivage, tiers d’horodatage), il ne faut pas l’oublier. Il vérifie l’identité et la capacité des parties. L’acte authentique notarié confère une force probante, une date certaine et une force exécutoire. La durée de conservation des actes notariés est sans limite dans le temps. Ce processus peut s’effectuer avec un dépôt électronique. Le service de « dépôt électronique notarial » permet d’abord de constituer à tout moment la preuve que des documents numériques existaient à une date donnée. Ensuite, de conserver ces documents sur support électronique pour un temps déterminé en un lieu sécurisé (le « coffre-fort électronique ») garantissant leur confidentialité et leur intégrité pour le temps convenu. Enfin, le dépôt électronique notarial permet de disposer à tout moment des documents déposés, soit en en obtenant une copie tout en les conservant en dépôt, soit en demandant la restitution pure et simple, sans conservation d’un exemplaire ou d’une copie. L’acte authentique contient les empreintes de l’enveloppe électronique (données d’indexation renseignées par le notaire et les documents déposés) ainsi que les empreintes de chaque document déposé. Le processus peut paraître lourd mais il fournit de fortes garanties en matière de preuve d’existence d’un document à une date donnée. Le monde des notaires bouge beaucoup, en témoigne une initiative européenne menée par les notaires italiens, allemands, hollandais et français : le eWitness. Les services eWitness concerne les documents (archivage et certification de documents électroniques pour le long terme), les mails (enregistrement de services de mail avec notion d’accusé de réception, que le notaire signe), le téléphone (archivage et certification du contenu de conversations téléphoniques sur IP) et le Web (certification et authentification de transactions avec une véritable valeur légale). 16 | De la dématérialisation à l’intelligence économique L’interface XAM XAM (eXtensible Access Method) est une initiative SNIA (Storage networking industry association) pour l’archivage des données. Elle définit, pour la réalisation d’un service d’archivage (stockage à contenu fixe), une interface standard (API) entre une application, un logiciel d’administration (Consumers) et systèmes de stockage (Providers). XAM permet le respect des règles légales pour la conservation et la sécurité appliquée aux données. XAM fixe des règles de gestion de la donnée (ILM) : des métadonnées ajoutées permettent la classification et l’annotation, les règles ILM sont enregistrées dans des champs prédéfinis et sont implémentées au niveau stockage et/ou par des solutions tierces ajoutées. Par ailleurs, XAM permet l’accès universel aux données d’archives, avec un stockage et une restitution des informations indépendant des applications. XAM permet également une interopérabilité basée sur les standards. Une application compatible XAM fonctionne (doit fonctionner) avec n’importe quel fournisseur de stockage compatible XAM. Les métadonnées associées permettent l’interopérabilité et les informations peuvent être migrées entre différents systèmes de stockage (pérennité). La première expérience pilote a été mise en place fin 2007. | 17 De la dématérialisation à l’intelligence économique L’intervenant Cyril Van Agt est responsable avant-vente Grands Comptes chez NetApp depuis 2001. Il a été auparavant Consultant chez Oracle France, puis chez Ixos Software. www.netapp.fr 18 | De la dématérialisation à l’intelligence économique Sécurité et stockage : questions-clés et bonnes pratiques Par Cyril Van Agt Le besoin d’archivage est de plus en plus lié à l’explosion des données soumises à des contraintes réglementaires. On observe en effet la prolifération des réglementations, telles que SEC 17a-4, Sarbanes-Oxley, GoBS, SB 1386, Basel II, Check 21, GrahamLeach-Bliley Act, Patriot Act, HIPAA... De plus en plus de données sont donc concer nées, qu’elles soient structurées, semi-structurées ou non structurées. A cela s’ajoutent de longues périodes de rétention. Par exemple, aux Etats-Unis, elles atteignent trois ans pour les e-mails dans le cadre de la réglementation SEC 17a-4, cinq ans pour les données hospitalières et jusqu’à la mort des patients pour les données médicales. Le choix d’une plate-forme de stockage pour l’archivage légal suppose d’abord de se poser les bonnes questions. Retenons-en six, qui sont fondamentales dès lors qu’une entreprise envisage de mettre en œuvre une politique cohérente de stockage. 1 - Puis-je vérifier que mes contenus resteront sous leur forme authentique pendant toute la durée de conservation requise ? La conservation sécurisée des données doit s’effectuer par une journalisation des écritures par cache, un checksum disques, des vérifications périodiques de l’intégrité et une protection RAID contre les doubles pannes et les erreurs de media. Dans ce contexte, le mode WORM offre une protection contre toute altération ou effacement par l’utilisateur, l’application et même l’administrateur, la gestion de la période de rétention avec une granularité enregistrement et l’utilisation d’une horloge séparée. 2 - Cette solution me protège-t-elle contre l’obsolescence des technologies et garantitelle la disponibilité de mes documents sur le long terme ? | 19 De la dématérialisation à l’intelligence économique Le support matériel doit être utilisable au plus loin possible, tant que la technologie le permet et il faut une garantie de relecture des archives dans le futur par utilisation de standards pour l’accès aux données archivées (protocoles NFS-CIFS). Il importe également de prévoir une réplication en garantissant la propagation de l’état WORM et une sauvegarde des archives (sur disque ou bande). 3 - En cas de requête ou de contentieux judiciaire, me donne-t-elle la possibilité de produire les pièces requises dans les délais prescrits ? Les archives doivent être disponibles en ligne, à la lecture, même si l’application est perdue. La lecture des enregistrements doit être possible via des protocoles ouverts NFS et CIFS. Par ailleurs, aucun impact en performance ne doit se produire et la recherche s’effectuer à l’aide d’outils standards ou optimisés. 4 - Répond-elle à la fois aux besoins de mon activité et aux exigences réglementaires propre à mon secteur d’activité ? La réponse à cette question est variable selon le secteur de l’entreprise. Il faut toutefois prévoir dans tous les cas une protection contre toute altération ou effacement par l’utilisateur, l’application ou même l’administrateur. 5 - Est-elle compatible avec l’ensemble des applications génératrices de contenus utilisées dans mon entreprise ? Des connecteurs doivent être disponibles avec les acteurs majeurs de l’archivage, avec une intégration simplifiée, sans API propriétaire. La solution doit se suffire à elle-même pour les données non structurées. 6 - Est-elle en mesure de faire face à l’augmentation inévitable des volumes de contenus à archiver durablement et à un coût acceptable ? Le volume de stockage doit être suffisant (par exemple jusqu’à deux milliards d’objets par baie et jusqu’à un petaoctet par baie). L’espace libéré en fin de rétention et après destruction doit pouvoir être réutilisé. 20 | De la dématérialisation à l’intelligence économique Les points clés pour le choix d’une solution Pérennité - Solution ouverte, reposant sur des standards. - Support des applications d’hier, aujourd’hui et de demain. Performance et Disponibilité - Avantage au disque rapide par rapport aux bandes et aux medias optiques. Sécurisation - Protection contre incidents matériels et désastres de site. - Maintien de la chaîne de conformité. Conformité - Respect des régulations et exigences légales. Evolutivité - Gestion de l’explosion des volumétries. | 21 De la dématérialisation à l’intelligence économique L’intervenant Eric Caprioli est Docteur en droit, avocat à la Cour de Paris, spécialiste en droit de la propriété intellectuelle et des TIC. Vice-président de la Fédération Nationale des Tiers de Confiance (F.N.T.C.) et de la FedISA. Expert aux Nations Unies pour les questions de commerce électronique. www.caprioli-avocats.com 22 | De la dématérialisation à l’intelligence économique Preuve électronique et système d’information Par Eric Caprioli « Non jus deficit sed probatio » : ce n’est pas le droit qui est défaillant mais la preuve. Ce principe résume le fait que la preuve est l’élément fondamental du droit. Elle est au droit ce que l’ombre est à l’homme. La preuve constitue ainsi la « démonstration de l’existence d’un fait ou d’un acte (contrat, testament) dans les formes admises par la loi. ». De cette définition découlent deux types de preuves. D’une part, la preuve libre : il s’agit de la preuve du fait juridique, entre commerçants, ou lorsque le montant d’une transaction est inférieur à 1 500 euros. Elle peut être apportée par tous moyens. D’autre part, la preuve littérale : écrite, elle est liée à l’acte juridique. Le principe de la preuve est le suivant : les contrats sont consensuels (sans forme particulière). Mais il y a trois exceptions particulières à la nécessité de la preuve par écrit (cas par défaut) : d’abord, le commencement par écrit rend recevable d’autres preuves dites imparfaites ou des présomptions ; ensuite, l’impossibilité matérielle ou morale de se procurer un écrit (application en matière de la preuve des ordres de bourse passés par téléphone) ; enfin, la copie « fidèle et durable » (cas de l’archivage en GED). Il existe des situations où l’écrit n’est plus seulement nécessaire à la preuve de l’acte mais également à sa validité. Qu’il s’agisse de la volonté de protection du consommateur, par exemple avec l’indication de mentions manuscrites, le cautionnement de crédit mobilier et immobilier à la consommation, l’Offre préalable de crédit (OPC) et la rétractation ; ou de l’importance des droits cédés ou concédés nécessitant un formalisme particulier (apposition d’une mention particulière…), | 23 De la dématérialisation à l’intelligence économique par exemple pour le droit d’auteur, le contrat de société (statuts), le nantissement commercial, les instruments cambiaires (lettre de change, chèque…), l’écrit est nécessaire à l’existence de l’acte. Le développement des échanges par voie électronique nécessite certaines évolutions des pratiques classiques dans le domaine probatoire. On peut ainsi citer plusieurs textes significatifs de ces évolutions (voir encadré). Les principaux textes à connaître - Loi du 13 mars 2000 portant adaptation du droit de la preuve aux technologies de l’information et relative à la signature électronique ; - décret du 30 mars 2001 pris pour l’application de l’article 1316-4 du Code civil ; - décret du 18 avril 2002 relatif à la certification des produits de sécurité ; - arrêté du 26 juillet 2004 portant schéma de qualification des P.S.C.E.; - loi du 21 juin 2004 pour la confiance dans l’économie numérique (art. 1108-1 et 1108-2 c. civ.) ; - décret du 16 février 2005 pris en application de l’article L. 134-2 du Code de la Consommation (archivage > ou = 120 € pendant 10 ans) ; - ordonnance du 6 juin 2005 relative à la commercialisation à distance de services financiers auprès des consommateurs ; - ordonnance du 16 juin 2005 prise en application de l’article 26 de la LCEN ; - décrets du 10 août 2005 introduisant les actes authentiques électroniques pour les actes notariés et les actes d’huissier ; - décret du 25 novembre 2005 relative à la commercialisation à distance de services financiers auprès des consommateurs ; L’écrit à valeur probante est régi par deux dispositions. La première est l’article 1316-1 du Code civil : « l’écrit sous forme électronique est admis en preuve au même titre que l’écrit sur support papier, sous réserve que puisse être dûment identifiée la personne dont il émane et qu’il soit établi et conservé dans des conditions de nature à en garantir l’intégrité. » 24 | De la dématérialisation à l’intelligence économique La seconde disposition concerne la pluralité d’originaux (article 1325 al. 5 du Code civil, innovation de l’ordonnance du 16 juin 2005) : « l’exigence d’une pluralité d’originaux est réputée satisfaite pour les contrats sous forme électronique lorsque l’acte est établi et conservé conformément aux articles 1316-1 et 1316-4 et que le procédé permet à chaque partie de disposer d’un exemplaire ou d’y avoir accès. » L’écrit ad validitatem concerne l’exigence de l’écrit requis à des fins de validité. L’article 1108-1 du Code civil précise ainsi : « lorsqu’un écrit est exigé pour la validité d’un acte juridique, il peut être établi et conservé sous forme électronique dans les conditions prévues aux articles 1316-1 et 1316-4 et, lorsqu’un acte authentique est requis, au second alinéa de l’article 1317. » Cela signifie qu’il faut un écrit pour la validité d’un acte (par exemple pour un contrat de crédit à la consommation). Mais certains actes ne peuvent être dématérialisés (art. 1108-2 du Code civil), par exemple le cautionnement personnel (les cautionnements commerciaux peuvent l’être). Importance de la signature électronique Dans ce contexte, la signature électronique revêt une importance particulière dans tous les processus de dématérialisation (voir les documents publiés sur le site www. caprioli-avocats.com). Le principe est le suivant : tous les types techniques de signatures électroniques répondant a priori ou a posteriori aux exigences de l’article 1316-4 du Code civil sont valables. Une signature doit permettre l’identification de l’auteur, la manifestation du consentement à l’acte et elle confère l’authenticité à l’acte quand elle est apposée par un officier public. La signature électronique simple est définie par l’article 1-1 du décret du 30 mars 2001, comme « une donnée qui résulte de l’usage d’un procédé répondant aux conditions définies à la première phrase du second alinéa de l’article 1316-4 du code civil ». Il s’agit d’un procédé fiable d’identification qui garantit le lien avec l’acte auquel elle s’attache. Il convient de distinguer les notions d’identification et d’authentification. Identifier quelqu’un consiste à établir l’identité de la personne. Authentifier revient à certifier l’exactitude de son identité. L’article 4.e du Règlement CE n° 460/2004 du Parlement européen et du conseil du 10 mars 2004 instituant l’Agence européenne chargée de la sécurité des réseaux et de l’information définit l’authentification comme « la confirmation | 25 De la dématérialisation à l’intelligence économique de l’identité prétendue d’entités ou d’utilisateurs ». Le principe est d’identifier une personne souhaitant accéder à un système d’information grâce à un système d’identifiant (login) assorti d’un mot de passe. Face au risque de compromission ou de vol des identifiants, il faut avoir recours à un système d’« authentification forte » consistant à vérifier avec quasi certitude que la personne qui s’identifie est bien celle qu’elle prétend être (par exemple avec un certificat électronique). La signature électronique sécurisée (SES) est une signature électronique qui doit satisfaire en outre aux trois exigences suivantes (art. 1-2 du décret du 30 mars 2001) : la sécurité et l’identification personnelle (« être créée par des moyens que le signataire puisse garder sous son contrôle exclusif » ), l’intégrité («garantir avec l’acte auquel elle s’attache un lien tel que toute modification ultérieure de l’acte soit détectable ») et l’unicité et l’identification (« être propre au signataire »). La SES présumée fiable se compose à la fois d’un dispositif de création de signature certifié par la DCSSI (décret du 18 avril 2002) et d’une vérification à l’aide d’un certificat électronique qualifié (décret du 30 mars 2001 et arrêté du 26 juillet 2004). Ainsi, l’utilisation de la SES (avec dispositif de création de signature certifié et certificat qualifié) permet de bénéficier d’une présomption de fiabilité. Selon l’article 2 du décret du 30 mars 2001 : « la fiabilité d’un procédé de signature électronique est présumée jusqu’à preuve contraire lorsque ce procédé met en œuvre une signature électronique sécurisée, établie grâce à un dispositif sécurisé de création de signature électronique et que la vérification de cette signature repose sur l’utilisation d’un certificat électronique qualifié. » La présomption de fiabilité aboutit au renversement de la charge de la preuve. La preuve pèse alors sur celui qui conteste la fiabilité du procédé de signature utilisé. Les articles 1316-1 et 1316-4 du Code civil constituent la base pour reconnaître la valeur juridique d’un écrit sous forme électronique, en tant que preuve, en tant que formalité ad validitatem et en tant qu’original. La fiabilité de la signature électronique est donc essentielle pour les écrits sous forme électronique (sauf pour les commandes en ligne). Concernant les commandes en ligne de produits, ce sont les articles 1369-4 et s. du Code civil qui trouvent à s’appliquer. La gestion de la preuve présente plusieurs intérêts. Même si elle n’est pas une activité juridiquement définie, elle est pourtant essentielle. L’objectif est de convaincre un juge de la valeur juridique et de la force probante d’un écrit sous forme électronique (signature électronique). 26 | De la dématérialisation à l’intelligence économique Le rôle de l’Autorité de gestion de preuve Une politique de gestion de la preuve doit être écrite sur la base des engagements (obligations et responsabilités « juridiques ») relatifs à la fiabilité technique et organisationnelle vis-à-vis de clients. Elle décrit les rôles de l’autorité en charge de la gestion de la preuve, les processus de création de l’attestation de preuve délivrée et de l’archivage de la preuve. La gestion de preuve peut s’effectuer avec un tiers indépendant : une autorité de gestion de preuve (AGP), entité en charge de garantir que la validité de données est assurée au moment de l’émission de l’attestation de preuve. Les éléments suivants sont alors vérifiés : l’origine des données dont la validité doit être attestée, la signature électronique (intégrité des données et validité du certificat à la date de réception des données, chemin de confiance), et un jeton d’horodatage indiquant la date à laquelle l’attestation de preuve est établie. L’autorité de gestion de preuve est responsable de la validité des Attestations de preuve établies conformément aux pratiques figurant dans la politique de gestion de preuve. Elle archive pour son compte ses exemplaires d’attestations de preuve. Les obligations de l’Autorité de gestion de preuve - L’AGP est responsable des opérations relatives aux attestations de preuve réalisées par l’une quelconque des composantes de l’AGP ; - Information et documentation apportées par le client ; - Etre auditable ; - Respecter des règles de sécurité ; - Effectuer la journalisation des opérations effectuées ; - Garantir l’intégrité des données ; - Archiver les fichiers de preuve (et les attestations). Une attestation de preuve, qui est l’affirmation, par l’AGP, de la validité juridique d’un fait ou d’un acte au moment de leur transmission à l’AGP, contient plusieurs éléments : - les relations de faits auxquelles l’AGP a assistées ou qu’elle a constatées ; - le résultat des vérifications effectuées par l’AGP ; - les coordonnées détaillées de l’auteur de l’attestation de preuve ; - l’indication qu’elle est établie en vue de sa production en justice ; | 27 De la dématérialisation à l’intelligence économique - les limitations de responsabilité liées à l’attestation de preuve et notamment liées à la valeur maximale d’utilisation et aux limitations d’usage du certificat. - la signature électronique du système de l’AGP. Dans le cadre de sa gestion de l’attestation de preuve, l’AGP doit effectuer plusieurs tâches : - traiter les demandes d’attestations de preuve ; - vérifier la signature électronique ; - effectuer la génération des attestations de preuve ; - assurer la transmission des dossiers de preuve au client ; - transmettre le paquet de données à archiver au client ; - archiver ses exemplaires de dossiers de preuve ; - assurer l’accessibilité aux dossiers de preuve archivés par l’AGP ; - conserver une trace imputable des actions émanant du client. L’AGP a la responsabilité de la mise en œuvre du système qui permet de générer les attestations de preuve et elle assure la gestion de leur cycle de vie selon les demandes du client. Les données opérationnelles à archiver concernent les demandes d’attestation de preuve, les exemplaires des dossiers contenant l’ensemble des données (attestation, jeton d’horodatage, etc.), les fichiers de configuration des équipements informatiques de l’AGP, et les journaux d’événements. Les données doivent être archivées en utilisant un format destiné à en garantir la lisibilité dans le temps. Un contrôle d’intégrité doit être opéré tout au long de la conservation des données. Des dispositifs de vérification d’intégrité basés sur l’empreinte des documents doivent ainsi être régulièrement réalisés. La sécurité des données durant leur conservation doit être assurée à plusieurs niveaux : - Sécurité physique : accès aux locaux, pannes, conservation des medias… - Sécurité organisationnelle : compétence, gestion des habilitations, séparation des rôles… - Sécurité technique : contrôle des postes de travail, des mesures cryptographique, veille technologique… - Sécurité juridique : confidentialité, accessibilité, intégrité, les engagements sont formalisés dans la PGP et le contrat. 28 | De la dématérialisation à l’intelligence économique Les régimes de preuves Si la gestion de la preuve électronique constitue de façon certaine un marché en devenir pour lequel la demande ne cesse de croître, l’absence de textes relatifs à l’établissement des attestations de preuve et à la conservation des données oblige à se conformer à l’état de l’art en la matière et à un encadrement contractuel rigoureux. La question de l’assurance doit également être prise en considération. Le développement d’une politique de gestion de la preuve cohérente repose donc sur une veille technologique et réglementaire, un management juridique des risques et le recours à une organisation pérenne. | 29 De la dématérialisation à l’intelligence économique Les intervenants Loïc de la Cochetière (photo) est Président directeur général de l’Imprimerie Nationale, nommé par le Conseil des Ministres du 11 juin 2003. Il était auparavant directeur associé de la société de conseil en stratégie Lamco. Vincent Dreux est directeur du réseau Sakarah. Gilles Taib est directeur délégué Chronoservices. www.imprimerienationale.fr 30 | De la dématérialisation à l’intelligence économique Imprimerie Nationale : de l’impression de papier à une plate-forme de confiance Par Loïc De La Cochetière (avec Vincent Dreux et Gilles Taib) L’Imprimerie Nationale est une vieille maison, qui trouve son origine en 1538. Durant le précédent siècle, sa mission, couverte par un privilège de fait découlant de son statut de direction du ministère des Finances, est la fabrication des imprimés de gestion et de communication des administrations centrales de l’Etat. Ce privilège a été conservé jusqu’au 31 décembre 1993. A cette date, une loi a transformé l’Imprimerie Nationale en société anonyme. Son monopole a ainsi été précisé, limité, et, de fait, sanctuarisé. Résultat : seulement 15 % du chiffre d’affaires de l’Imprimerie Nationale relevaient alors de du monopole ainsi défini. Il s’agit de l’ensemble des documents nécessitant des conditions particulières de sécurité : passeports, titres de séjour, documents d’identité… Le reste des 250 millions d’euros du chiffre d’affaires de l’époque relevait du domaine concurrentiel. Entre 1994 et 2003, pour faire face à l’ouverture à la concurrence de l’essentiel de son chiffre d’affaires, l’Imprimerie Nationale a cherché à acquérir une taille critique dans tous ses métiers. Devant l’échec de cette stratégie, elle a entamé en 2003 un recentrage sur trois métiers, au lieu de treize auparavant, les autres étant ou cédés ou arrêtés, ce qui a conduit à réduire les effectifs de 1 600 à 400 salariés et le nombre de sites de production de cinq à un. Quelques dates clés de l’Imprimerie Nationale 1538 - François 1er accorde un privilège à un imprimeur qui devient «Imprimeur du Roi pour le grec ». 1640 - Le roi Louis XIII, sur les recommandations de Richelieu, transforme cette imprimerie en Manufacture Royale d’Imprimerie qui deviendra ensuite l’Imprimerie | 31 De la dématérialisation à l’intelligence économique Royale. Elle s’installe au Louvre. 1870 - L’Imprimerie impériale prend le titre d’Imprimerie Nationale qu’elle porte encore. 1910 - Changement de tutelle, du Ministère de la Justice à celle du Ministère des Finances. 1994 - L’Imprimerie Nationale devient l’Imprimerie Nationale S.A, une société de droit privé à capitaux d’Etat. 1995 - Sortie du premier CD-Rom conçu par l’Imprimerie Nationale. 1997 - Création des ateliers de production de cartes plastique. 2003-2006 - Plan de restructuration conduisant à un très important recentrage des activités. Trois métiers Outre son activité de conservation du patrimoine (500 000 pièces classées monument historique), l’Imprimerie Nationale est organisée désormais autour de trois métiers. Son premier métier est celui de plate-forme graphique et d’impression en continu proposant des solutions globales d’édition de documents administratifs et de gestion. C’est l’activité la plus proche du métier d’origine, l’imprimerie stricto sensu. Dans ce métier, notre vocation n’est plus de maîtriser en interne l’ensemble de la chaîne de production, mais de faire appel à des partenaires, lorsque cela se justifie, et de développer les activités de conception, de conseil et d’optimisation graphique. Le deuxième métier de l’Imprimerie Nationale regroupe les activités fiduciaires de production et d’émission de titres sécurisés, pour la France mais également à l’export pour 26 pays. Ce métier comprend notamment aujourd’hui l’intégration de l’électronique, de la biométrie et de la cryptographie dans les documents de sécurité et la centralisation des infrastructures d’émission. La réalisation du passeport électronique français nous a donné la responsabilité supplémentaire de la personnalisation centralisée des documents. Ainsi, dans notre usine de Douai, nous produisons 20 000 passeports par jour, dans un délai de quatre jours maximum entre la fourniture des informations par le ministère de l’Intérieur et la livraison en mairie. Enfin, le troisième métier de l’Imprimerie Nationale regroupe la plate-forme de confiance et d’administration électronique (dématérialisation et sécurisation d’enregistrement, émission et gestion pour compte de tiers de documents et de transactions électroniques). 32 | De la dématérialisation à l’intelligence économique Au-delà de la personnalisation, nous développons des services nouveaux dans la chaîne de confiance. Nous avons par exemple créé en 2002 la société Chronoservices qui a remporté l’appel d’offres de délégation de services public pour la fourniture des cartes chronotachygraphe. Ainsi, nous sommes désormais responsables non seulement de la fabrication et de la personnalisation des cartes, mais également de leur délivrance, fonction d’autorité de confiance par excellence, et c’est pour nous une énorme avancée. Pour résumer, l’Imprimerie Nationale évolue profondément par l’acquisition de compétences dans les domaines technologiques de la confiance et une mutation culturelle des métiers de l’imprimerie de labeur vers les services à haute valeur ajoutée. Mais au-delà de la mutation des métiers, que l’on observe à la fois dans les domaines des supports (papier fiduciaire, cartes plastiques), des nouvelles technologies (marquage de sécurité physique, puces avec ou sans contact) et de la personnalisation des documents (documents nominatifs, produits finis à plus forte valeur), il s’agit aussi de faire évoluer les prestations associées, en privilégiant la valeur ajoutée avec les services de bureau d’enregistrement (service d’enrôlement, relation client), les tiers de confiance, la lutte contre la contrefaçon (bases de données ) et la dématérialisation des factures. En termes d’administration électronique, l’Imprimerie Nationale propose trois services majeurs : Chronoservices, une autorité de gestion de preuve et une plate-forme collaborative d’échanges commerciaux et financiers avec les entreprises. Chronoservices, une véritable chaîne de confiance Chronoservices est une autorité d’émission de titres sécurisés, autorité de gestion et de délivrance des cartes pour le chronotachygraphe numérique (délégation de service public, titre sécurisé européen). C’est également une chaîne de confiance avec un bureau d’enregistrement, des contrôles et des vérifications, la décision d’émission, la production et l’expédition au titulaire. Le règlement européen sur le chronotachygraphe numérique s’applique à trente cinq pays : ce règlement remplace le mouchard papier par un dispositif électronique comportant un boîtier installé dans le véhicule et des cartes à puces qui identifient les conducteurs, les employeurs, les contrôleurs et les ateliers en charge du scellement des appareils de contrôle. A travers cette délégation de service public, Chronoservices organise l’ensemble de la délivrance, des relations avec les professionnels, le contrôle des pièces produites (validité des permis de conduire). Cela débouche sur la décision | 33 De la dématérialisation à l’intelligence économique d’émission. Par ailleurs, la prestation comprend la traçabilité et la gestion du cycle de vie des cartes. Le service repose sur la carte de conducteur qui contient trois types de données : sociales (représentative de l’activité du conducteur pendant un mois, source du processus de paie), électroniques (enregistrées automatiquement et contrôlable partout en Europe avec une interopérabilité totale : un conducteur français peut ainsi être contrôlé par un lituanien avec des données en lituanien) et des données certifiées opposables à valeur de preuve présumée fiable. Les données sociales électroniques certifiées sont conservées dans la carte pendant un mois, par l’entreprise pendant un an et opposables devant les prud’hommes pendant cinq ans, avec la nécessité de gérer les preuves… Chronoservices Plate-forme de confiance La construction d’un tel système pose la question de la disparition du papier, concernant les données sociales, alors qu’il faut les conserver. Que faire quand le papier disparaît pour résoudre les litiges en droit du travail ? Par exemple, comment être certain que les données détenues par les employeurs n’ont pas été modifiées ? Ces questions ont été examinées avec des conseillers prud’homaux et de là est née la réflexion autour de la gestion de la preuve, dont l’objectif est de maintenir la valeur juridique de la preuve dans le temps. Il n’est pas question bien sûr de se substituer au chef d’entreprise : la plate-forme de confiance, dans sa mission d’autorité de 34 | De la dématérialisation à l’intelligence économique gestion de la preuve, ne vérifie donc pas le contenu, ce n’est pas son métier. Le chef d’entreprise signe les données, la plate-forme de confiance vérifie la signature, trace les opérations (horodatage), génère une attestation signée. Elle conserve un double et remet à l’entreprise ses données : le document source, l’attestation, le tout étant déposé chez un tiers archiveur. Si un litige se présente, la plate-forme de confiance peut certifier que le document présenté est bien conforme au document original. L’autorité de gestion de preuve a pour mission de pérenniser les preuves, c’est-àdire le maintien de sa valeur juridique dans le temps. L’attestation de preuve est le constat d’un fait juridique, utilisable comme élément de preuve, par exemple afin de certifier des transactions électroniques, de lutter contre la contrefaçon ou d’assurer la traçabilité de serveurs. Sakarah, outil de gestion collaborative La plate-forme Sakarah propose, au lieu d’un simple transport d’informations, des services de gestion collaborative d’informations dans les domaines commerciaux, comptables et financiers. C’est un modèle multi-opérateurs, afin de favoriser l’émergence des acteurs légitimes (voir schéma ci-après). Sakarah : plate-forme collaborative | 35 De la dématérialisation à l’intelligence économique Lorsque l’Imprimerie Nationale a pris la décision d’étudier le marché, elle a analysé ce qui existait en matière d’échanges électroniques et de systèmes de dématérialisation et a constaté que les systèmes existants souffraient d’un point faible : celui d’avoir été conçu suivant la même logique et le même processus que le document papier, c’est à dire conception, impression et transmission du document. Le processus est le même dans la déclinaison électronique : un objet numérique est créé et il est transmis. Réseau Sakarah Un modèle multi-opérateurs pour favoriser l’émergence des acteurs légitimes Pour introduire davantage de cohérence dans ce processus, il a semblé intéressant d’observer comment procédaient les entreprises avant l’utilisation du papier : n’oublions pas que les multinationales existaient déjà chez les romains ! Et que la comptabilité, inventée par les assyriens, était déjà à l’époque très proche de nos normes. Nous avons ainsi étudié les processus basés sur les tablettes d’argile, les systèmes égyptiens, phéniciens, jusqu’aux extraordinaires systèmes de compensation de foires des marchands italiens. Notre attention a été attirée par le système de la taille. Le principe est le suivant : une baguette de noisetier coupée en deux. Le client en conserve une moitié, le commerçant détient l’autre moitié. Tous les matins, lorsque le client va acheter son 36 | De la dématérialisation à l’intelligence économique pain, le boulanger le sert, rapproche les deux exemplaires de la baguette de noisetier et fait une encoche qui marque simultanément les deux parties. A la fin de la semaine, lorsque le client vient payer ce qu’il doit au boulanger, les deux morceaux de baguette sont rapprochés et les encoches évidées. Ce système définit une notion parfaite d’original partagé et infalsifiable. La comptabilité du client chez le fournisseur et celle du fournisseur chez le client étaient toujours en miroir. Ce système a disparu de l’inconscient populaire. Mais il nous semble possible d’assurer la gestion de l’information électronique avec une notion de taille électronique pour gérer les relations entre deux entreprises ou entre une entreprise et une administration et dont les premiers objets concernés peuvent être des factures, des règlements, des notes de frais, des déclarations, des dossier de litiges. Développer un réseau d’opérateurs Ainsi, sur des plates-formes indépendantes, gérées par un tiers de confiance, nous sommes capables de proposer aux acteurs économiques, d’une part, le partage de l’information et, d’autre part, la garantie de son intégrité. Chacun peut donc avoir la certitude que l’information présente dans ses propres systèmes correspond aux transactions réellement effectuées. Notre projet cible est de rassembler les partenaires commerciaux sur une plate forme collaborative. Mais pour que cela fonctionne, il faut proposer à ces acteurs économiques des systèmes pour gérer la dissymétrie entre les grandes organisations et les plus petites, entre celles qui privilégient l’électronique et celles qui préfèrent encore le mode papier, ou bien entre des secteurs différents par leurs contraintes. Pour réussir, il faut donc imaginer des solutions utilisables à la fois par toutes les entreprises, sans que les unes soient lésées par rapport aux autres du fait de leurs différences d’utilisation de processus électroniques. Nous avons développé la notion de réseau d’opérateurs commerciaux, chacun de ces opérateurs détenant et administrant une instance de nos plates-formes et pouvant proposer ses services aux entreprises. Nous recrutons essentiellement des entreprises présentes commercialement dans des domaines et des secteurs complémentaires. Par exemple, dans le domaine de la facture, travailler avec des comptables a un sens, au niveau métier, avec des banques à un sens au niveau financier, de même travailler avec des spécialistes de l’éditique, de la numérisation ou de l’archivage a un sens au niveau logistique et technique. | 37 De la dématérialisation à l’intelligence économique Notre objectif est de mettre en place un premier niveau de réseau qui permette d’avoir une offre qui soit globale dans la chaîne d’échanges d’informations entre les entreprises, les administrations et les collectivités. L’Imprimerie Nationale ne se positionne directement, sur le plan commercial, que sur un seul marché : celui des informations échangées entre les entreprises et les administrations. Pour tous les autres marchés, nous recherchons des prestataires qui vont revendre notre service en l’état ou l’intégrer dans leurs propres prestations. Nous proposons à ces prestataires d’ouvrir les référentiels clients et fournisseurs de leurs clients sur nos plates-formes. Nous prévoyons d’avoir 300 000 comptes ouverts sur la plate-forme, avec huit opérateurs à fin 2008. Nous mettons ainsi à la disposition des entreprises des offes globales intégrant des « aiguillages » de transmission de l’information, soit par des flux électroniques, soit par édition papier ou inversement, des flux papiers numérisés avec saisies complémentaires vers les flux électroniques. Le respect des usages est fondamental pour assurer un déploiement efficace : il est essentiel de proposer aux entreprises qui continuent à travailler en papier les moyens d’entrer dans le système, en ayant accès à nos plates-formes, sans bouleverser leurs processus. Au niveau de l’expression de besoins des entreprises, nous avons cherché à répondre aux deux points majeurs relevés qui sont, d’une part, la qualité de l’information avec notamment comme conséquence, la conformité avec les normes IFRS (traçabilité de l’information) et, d’autre part, la réduction des coûts. En France, les collaborateurs des services comptabilité fournisseurs et comptabilité clients passent en moyenne 30 % de leur temps à se parler pour combler des déficits d’information. Dans 90 % des cas, il ne s’agit pas de vrais litiges mais d’échanges d’informations de base sur la bonne réception des factures, sur la validation des numéros de commandes, les modes de règlement… Enfin, en termes de volumes, il s’échange annuellement entre 1,7 et 2 milliards de factures entre entreprises structurées, auxquelles s’ajoute un milliard de factures produites par les professionnels indépendants et un milliard de plus transitant entre les entreprises et l’Administration. 38 | De la dématérialisation à l’intelligence économique | 39 De la dématérialisation à l’intelligence économique L’intervenant Philippe Rosé, docteur ès Sciences Economiques, rédacteur en chef de Best Practices Systèmes d’Information a été rédacteur en chef de CIO - Stratégie et Technologie, un magazine dédié aux management des systèmes d’information créé en 2002. Auparavant, il a été journaliste au Monde Informatique. Il a également été responsable des études économiques et statistiques sur la sécurité monétique au sein du Groupement Cartes Bancaires et, auparavant, a exercé des fonctions similaires à la Fédération Française des Sociétés d’Assurances. Il est par ailleurs membre du conseil d’administration de la Fondation pour la Recherche Sociale, Président de la commission Identification-Authentification de FedISA, conseiller éditorial pour les Editions Dunod, membre du groupe de travail sur la cybercriminalité du Clusif (Club de la sécurité de l’information français) et du groupe de travail « Systèmes d’information et compétitivité » de l’Association nationale des docteurs ès sciences économiques et en sciences de gestion. Il est l’auteur de plusieurs ouvrages sur la sécurité, l’économie et le management des technologies de l’information. www.bestpractices-si.fr 40 | De la dématérialisation à l’intelligence économique Sécurité et évolution des systèmes d’information Par Philippe Rosé Les entreprises françaises souffrent d’un étrange paradoxe. D’un côté, il est indéniable, et peu de dirigeants d’entreprises le contestent, que les systèmes d’information constituent l’épine dorsale du fonctionnement opérationnel des entreprises et, de fait de leur compétitivité. De l’autre, les réflexions et les actions engagées par ces mêmes dirigeants (et ceux qui ont la tâche de gérer au quotidien les systèmes d’information) pour garantir la disponibilité de ces ressources vitales, n’apparaissent guère probantes. Il suffit d’observer le nombre d’incidents plus ou moins graves qui affectent les systèmes informatiques et les réseaux, compromettant par là même la disponibilité, donc la compétitivité des entreprises, pour s’en convaincre. Sans parler des actes de malveillance qui font régulièrement l’actualité. Les chiffres que publie chaque année le Clusif (Club de la sécurité de l’information français) sont à cet égard tout à fait éloquents. Ainsi, l’étude publiée mi 2008 montre que la dépendance des organisations, qu’elles soient privées ou publiques, à l’égard des systèmes d’information est très forte : 75 % des entreprises sont exposées à une dépendance forte vis-à-vis du système d’information : une indisponibilité de moins de 24 heures a des conséquences graves sur l’activité. Cette dépendance est bien évidemment beaucoup plus forte dans les grandes entreprises et dès lors que les systèmes sont interconnectés avec ceux d’organismes tiers. Certes, la conscience du risque progresse mais il n’y a pas encore, aujourd’hui, de véritable identification entre le risque technologique et le risque business. Pourtant, à l’heure du commerce électronique, de la dématérialisation des échanges, des interconnexions entre les réseaux et de la globalisation économique, les risques n’ont jamais été aussi potentiellement significatifs. Jusqu’à devenir majeurs par exemple pour des entreprises qui ont basé leur business modèle sur la technologie | 41 De la dématérialisation à l’intelligence économique (c’est le cas pour le e-commerce). Et pour celles qui ne sont pas 100 % « web centric », les modifications organisationnelles montrent que l’interdépendance devient la règle. Un contexte organisationnel fragile La physionomie des entreprises d’aujourd’hui n’a plus rien à voir avec celle que l’on a historiquement connues. Aujourd’hui, l’entreprise devient hyper relationnelle, au sens où elle accentue ses liens avec ses propres salariés, ses partenaires, ses soustraitants, ses fournisseurs et ses clients. Tous ses liens sont produits et systématisés avec les technologies de l’information (systèmes d’information ressources humaines, chaîne logistique, web commerce, dématérialisation des échanges commerciaux...). La technologie permet ainsi de produire à moindre coût et de s’engager dans des activités qui, sans elle, n’auraient pas été possibles. Pour le système d’information, cela introduit un degré de complexité supplémentaire qu’il est difficile de maîtriser dans sa totalité. Dès lors que les réseaux de distribution s’entremêlent, il est difficile de tous les identifier et de savoir quelle est la contribution de chacun à la valeur de l’ensemble. Une rupture dans la disponibilité de cette chaîne complexe introduit donc des risques importants. Les technologies de l’information et Internet en particulier, apportent théoriquement de la fluidité dans le maillage complexe que les entreprises ont initié. Mais, globalement il est difficile de cartographier les infrastructures, donc les risques qui y sont liés. L’enjeu est clair et se mesure en milliards d’euros. Le patrimoine informationnel des entreprises est considérable, même si on ne peut l’estimer de façon précise, la comptabilité ne permettant pas de mener à bien un tel exercice. La fin de l’intégration verticale Historiquement, trois ruptures se sont succédées. D’abord, les entreprises ont procédé à une intégration verticale, par exemple les constructeurs automobiles qui ont produit eux-mêmes tous les composants des véhicules, ou les constructeurs informatiques, qui produisaient des microprocesseurs aux disques durs, en passant par les châssis et les claviers. Les technologies ont rendu cet objectif plus aisément réalisable. Cela s’est traduit concrètement par la mise en relation des relations avec les fournisseurs (en amont) et ses distributeurs (en aval), souvent par le biais de liens EDI, puis Internet. 42 | De la dématérialisation à l’intelligence économique Seconde phase, une fois achevée cette intégration verticale : l’intégration horizontale. Elle fut à la fois interne (c’est la vocation première des systèmes d’information d’entreprise que d’appuyer le management pour rendre l’organisation plus efficace) et externe. Ce fut d’ailleurs l’une des causes de l’équipement des entreprises en progiciels intégrés. Mais les intégrations verticale et horizontale ont vite trouvé leurs limites : celles d’un espace fini, bordé par le fait que les entreprises ne géraient que deux ou trois métiers avec, pour chacun, quelques partenaires. Aujourd’hui, les entreprises sont embarquées dans un mouvement sans fin qui se traduit par la multiplication, presqu’à l’infini, des lignes de produits, des filiales, des marchés toujours plus finement ciblés, des technologies, des partenariats. Autant d’axes d’intégration à gérer ! D’où une troisième rupture : dès lors qu’intégrations verticales et horizontales se démultiplient, on abouti logiquement à ce que l’on pourrait symboliser par une « intégration sphérique ». Celle-ci se trouve face à deux contraintes majeures. La première est de nature temporelle : elle impose à l’entreprise une accélération de ses processus (la concurrence contraint à réduire les cycles de décisions, de réorganisation, de repositionnement, d’investissements...). Ces transformations profondes rendent les enjeux de disponibilité des activités et des services plus cruciaux pour les entreprises. | 43 De la dématérialisation à l’intelligence économique Evolution historique des systèmes d’information et des besoins en disponibilité Bases du système d’information Années 19601970 Mainframe Années 1980 PC (début de l’informatique distribuée) Années 1990 Années 2000 + Réseaux, clientserveur Internet Maîtriser les techniques formalisées Contrôler les process Contrôler l’organisation Besoins en Sécurité Disponibilité (pour les traitements batch) Intégrité (fragilité de l’informatique distribuée) Confidentialité (risques de fuites d’informations) Traçabilité (risque systémique) Profil RSSI Mécanicien Architecte Architecte Stratège Impact d’une indisponibilité Limité géographiquement Plusieurs dizaines à plusieurs centaines d’utilisateurs Plusieurs milliers d’utilisateurs Plusieurs millions d’utilisateurs Approches Sécurité Contrôler le système d’information Source : La pérennité du système d’information, Dunod, 2007. Maîtriser les concepts clés de la sécurité : disponibilité, intégrité, confidentialité et traçabilité Si l’on reprend les quatre concepts fondamentaux de la sécurité, la disponibilité est celui qui a probablement le plus d’impact. Les trois autres critères de sécurité de n’importe quel système d’information (confidentialité, intégrité, traçabilité) peuvent également induire des ruptures de disponibilité, par exemple lorsque des fuites d’informations conduisent à arrêter temporairement une application pour colmater les failles, lorsqu’une mauvaise traçabilité ou une corruption de données imposent qu’un réseau soit stoppé pour identifier la source du problème. La disponibilité se définit comme la capacité d’un système d’information à pouvoir être utilisé à tout moment, en fonction des performances prévues. Or, la 44 | De la dématérialisation à l’intelligence économique disponibilité est d’autant plus importante que le système d’information intègre des composantes tels que des systèmes d’information tiers (liens avec les sous-traitants, les partenaires...). L’intégrité assure que des informations ne sont pas modifiées entre le moment où elles sont émises et celui où elles sont réceptionnées par leurs destinataires. Elle assure également que les informations ne sont modifiées que par les utilisateurs autorisés. Il faut donc qu’aucune modification volontaire ou accidentelle ne survienne. La confidentialité est un besoin fondamental de tout système d’information. Il s’agit de la propriété qui assure que seuls les utilisateurs habilités ont accès aux informations. La perte de confidentialité se traduit de multiples manières, la plus connue étant la pénétration de hackers dans le système d’information. L’imputabilité des transactions est le mécanisme par lequel on peut imputer de façon certaine une opération à un utilisateur, à un instant donné. Il s’agit de pouvoir garantir une non-répudiation, c’est-à-dire le fait qu’un utilisateur A a bien envoyé à un utilisateur B un message ou une transaction, sans que celui-ci puisse nier l’avoir reçu. Dans ce contexte qui, rappelons-le, se caractérise par une complexification des organisations et par le danger des risques systémiques, le rôle des responsables de la sécurité des systèmes d’information s’est considérablement transformé. Hier informaticien formé sur le tas et noyé dans l’organigramme de son entreprise, le RSSI est aujourd’hui, avec les DSI, l’un des hommes-clé des systèmes d’information, il apparaît comme le garant de la pérennité de l’entreprise et de son patrimoine informationnel. En fait, les transformations du métier de RSSI s’analysent selon trois dimensions. La première dimension est évidemment technologique, en fonction de l’évolution de la typologie des systèmes d’information. Le problème est la maîtrise de la situation à un instant t ne présage en rien de la pérennité de l’état de la sécurité. Cette approche technologique de l’évolution du rôle du RSSI est certes intéressante, mais pas suffisante. Il faut en ajouter deux autres. D’une part, une approche managériale, dans la mesure où, parallèlement à son rôle de gestionnaire de la complexité technologique et des risques afférents, le RSSI est devenu un « modeleur de comportements ». Le RSSI devient plus stratège et communicant, notamment | 45 De la dématérialisation à l’intelligence économique vers les utilisateurs. D’autre part, une approche transversale dans la mesure où, et c’est une tendance de fond dont peu de RSSI ont encore conscience, la sécurité de l’entreprise sort du système d’information : déstabilisation médiatique, dénigrement sur Internet, OPA hostiles, espionnage, s’ajoutent aux risques de fraude, d’attaques virales et de pénétration informatique. Autant de risques qui menacent la disponibilité du système d’information. Les quatre facettes du métier de RSSI face à la pérennité du système d’information Enjeux Déclinaison sur la disponibilité du SI Aspects technologiques Garantir l’état de l’art Ne pas créer de décalage entre la nature des risques d’indisponibilité et l’architecture sécurité Aspects managériaux Conserver la cohérence de la politique sécurité Eviter un empilement de briques sécurité qui complexifie et ralentit la réactivité en cas d’incident Aspects humains Eviter les failles humaines Développer un état d’esprit sécurité : sensibiliser aux enjeux de la disponibilité Aspects stratégiques Favoriser la synergie avec la stratégie métier de l’entreprise Adapter la politique sécurité aux contraintes métier et à la taille de l’entreprise, et aux risques sur la pérennité du système d’information Source : Best Practices Systèmes d’Information. www.bestpractices-si.fr S’il y a seulement un mot pour caractériser un plan de sécurité, c’est : cohérence. D’abord dans les ressources, financières et humaines, ensuite dans les ressources techniques, et, enfin, dans les ressources « immatérielles » (essentiellement du temps). Il est hélas facile de construire un plan de sécurité non cohérent. Généralement, la stratégie n’est pas cohérente pour quatre raisons : - La direction générale n’est pas impliquée dans la stratégie sécurité et considère que dans la mesure où « quelqu’un s’en occupe chez nous », les problèmes sont réglés. Or, il est essentiel de comprendre que la vulnérabilité des systèmes d’information a un impact direct sur la compétitivité de l’entreprise. - La sécurité se résume à une accumulation de produits sans qu’il y ait de cohérence 46 | De la dématérialisation à l’intelligence économique entre ceux-ci. Résultat : des failles subsistent et la chaîne sécuritaire n’est pas continue. - Les responsables chargés de la sécurité sont mal formés et n’ont pas les compéten ces essentielles pour gérer de façon optimale la sécurité des systèmes d’information. - Les risques sont mal identifiés : soit les risques mineurs sont surestimés, soit les risques majeurs sont complètement ignorés alors qu’ils peuvent mettre en péril l’entreprise. Par exemple, les risques d’erreurs sont surestimés alors que l’entreprise a développé de manière anarchique des connexions Internet, d’où des risques majeurs potentiels de malveillance externe. Dans tous les cas, cela se traduit par une mauvaise allocation des ressources. Nombre de ces constats résultent des mêmes causes. Les systèmes d’information ne sont pas bien maîtrisés et, dans l’ensemble, sont mal protégés, pas tant du point de vue des solutions de sécurité elles-mêmes, que de celui de l’insuffisance des procédures et de l’organisation associées, à cause aussi de l’incohérence des actions et mesures entre elles (problèmes organisationnels et architecturaux). Ensuite, on observe souvent une inadéquation de l’efficacité des mesures par rapport aux menaces en nature et en niveau (ce qui tient à la déficience de l’analyse des risques). Enfin, on constate l’insuffisance du contrôle (on en vient encore à des questions fondamentales d’organisation de management, d’éducation, de définition des responsabilités, etc.) n’est pas abordée. Mais la sécurité ne peut résulter d’un empilement désordonné de dispositifs de prévention ou de protection, les clés essentielles tiennent à la cohérence des architectures et des procédures, ainsi qu’à la maîtrise des comportements humains. Ainsi, lorsqu’on analyse la phénoménologie du sinistre, des causes aux conséquences, il convient de mettre l’accent sur l’engagement de l’homme en termes de responsabilité. Nous voyons croître le nombre de risques potentiels pouvant se traduire par des catastrophes à l’issue de phénomènes sériels et cumulatifs. Un même progiciel, une même base de données, peuvent être utilisés par un très grand nombre de systèmes d’information, dans le monde entier. Un bogue, une erreur, une inconsistance dans un contexte particulier, et c’est un sinistre touchant des milliers de sites ayant la même activité. Non seulement le phénomène est cumulatif, mais il peut aussi être sériel. C’est à dire qu’un système réagit automatiquement et envoie une information vers un autre qui, à cause de cela réagira de la même façon. C’est l’intérêt d’un plan de sécurité de prendre en compte ces phénomènes. | 47 De la dématérialisation à l’intelligence économique Il paraît donc raisonnable de ne plus admettre une prolifération incontrôlée des systèmes mais de s’interroger le plus en amont possible sur les implications potentielles en termes de risques majeurs. L’analyse des risques, avant de se référer à une collection d’outils, devrait être un réflexe essentiel et systématique. Parallèlement, les entreprises et les grandes administrations publiques vont faire évoluer leur stratégie en matière de sécurité, car : 1. D’un problème ponctuel, la sécurité des systèmes d’information devient un problème de stratégie d’entreprise. L’arrêt ou la compromission des systèmes signifie la fin d’une entreprise. Ce qui était vrai il y a quelques années seulement pour certaines fonctions stratégiques l’est aujourd’hui pour toute l’entreprise. 2. D’un problème privé, la sécurité des réseaux devient un problème de politique publique, car il existe des menaces que les infrastructures, par exemple les réseaux de télécommunications ou de distribution d’énergie, qui ont des conséquences sur les entreprises. 3. D’un problème technique la sécurité des réseaux devient un problème managérial. Autrement dit, rien ne sert d’empiler des outils de sécurité, par exemple des systèmes de stockage, d’archivage ou des outils de contrôle d’accès, sans cohérence d’ensemble, et, surtout, sans principes organisationnels. C’est à la fois une problématique de cohérence des architectures techniques qu’à une problématique de cohérence des ressources et comportements humains. 48 | De la dématérialisation à l’intelligence économique | 49 De la dématérialisation à l’intelligence économique L’intervenant Didier Lambert est DSI d’Essilor et Président du CIGREF (Club informatique des grandes entreprises françaises). Diplômé de mathématiques, il débute sa carrière comme enseignant en mathématiques. Il évolue plus tard vers l’informatique et travaille de 1973 à 1980 à l’UAP puis de 1980 à 1983 pour La France. Il travaille ensuite comme consultant chez Deloitte Haskins and Sell pendant deux ans. Il a été DSI de Digital Equipement France pendant huit ans, de 1984 à 1992. Puis il devient directeur des activités de conseil de Digital pendant deux ans, de 1992 à 1994. Il a rejoint le groupe Essilor en 1994. www.cigref.fr 50 | De la dématérialisation à l’intelligence économique De la problématique de l’archivage dans une grande entreprise... par Didier Lambert Dématérialisation et archivage : de quoi parle-t-on ? Je vis la problématique de l’archivage quotidiennement... Lorsque l’on m’a demandé de réfléchir à ce thème, j’ai achoppé sur la notion de « dématérialisation des informations ». En effet, les informations ne sont-elles pas, par nature, dématérialisées ? Elles ont simplement changé de support, passant respectivement du papier aux cartes, puis aux bandes, disques, DVD. Demain, les informations seront contenues dans les mémoires de masse. Ainsi, la problématique ne réside pas dans la dématérialisation des échanges en tant que telle mais plutôt dans l’évolution des supports. Un second mot me pose problème : « l’archivage ». De quoi s’agit-il ? Selon le contexte dans lequel évolue l’entreprise, cette notion d’archivage peut ne pas avoir tout son sens ! Prenons un exemple très simple : chez Essilor, nous vendons les verres à l’unité. Chaque verre est différent, nous en commercialisons 250 millions par an, sur mesure, avec des procédés de fabrication complexes. Lorsque l’on interroge les responsables de la logistique ou des directions métiers, leur réponse est simple : ils ont besoin de tout, rapidement et pour une période illimitée. Dans un tel contexte, la notion d’archivage devient diffuse et complexe à gérer. Plus généralement, les utilisateurs se réfèrent à Google… qui ne fait pas d’archivage ! Toutes les informations sont disponibles en permanence. En outre, la notion même d’archivage ne cadre pas avec les contraintes que nous imposent certains textes réglementaires. Le Code des Impôts, par exemple, impose aux entreprises d’être en mesure de reconstituer les traitements (pas seulement les résultats). Or, où trouve-t-on un dérouleur de bande comme il en existait il y a dix ans ? Nous sommes incapables de nous conformer à de telles obligations réglementaires qui deviennent, de fait, inapplicables. Nous, DSI, sommes tous hors la loi puisque nous ne disposons pas des moyens nécessaires pour | 51 De la dématérialisation à l’intelligence économique répondre à ces contraintes. Par ailleurs, les dirigeants ont besoin de pouvoir accéder à tout moment aux informations de l’entreprise, même si cela représente un coût financier important… Archiver les données, oui mais lesquelles, dans quelles conditions et à quel prix ? La frontière entre l’informatique et le reste de l’entreprise, si elle était claire il y a encore quelques années, tend aujourd’hui à s’estomper. D’où un nouveau problème : j’ai essayé de mettre en place, au sein d’Essilor, un PCA (Plan de continuité d’activités). Je n’y suis pas parvenu. Pourquoi ? La raison est simple : il y a quelques années, un PCA pouvait être mis en place relativement facilement dans un contexte où étaient gérés de grands systèmes et des traitements isolés. Il y avait l’informatique, puis le reste de l’entreprise. Sachant où l’informatique s’arrêtait, la frontière était claire. Aujourd’hui, cette organisation est inenvisageable : les systèmes d’information sont transversaux, ils touchent toute l’organisation de l’entreprise. Tous les process constituent un mix de procédures manuelles et de procédures informatiques qu’il est très difficile de découper. De plus, le système d’information évolue en permanence. Dans une entreprise comme Essilor, 400 modifications importantes portent sur le système d’information. Cela signifie que si nous voulions mettre en place un plan de continuité exhaustif, il faudrait le tester à chaque fois qu’une modification est faite. C’est inenvisageable chez Essilor… et, en réalité, la plupart des DSI croisent les doigts… ou brûlent des cierges ! Par ailleurs, les directeurs métiers ont des attentes fortes vis-à-vis de la DSI en matière de qualité de services et de disponibilité de l’information : - sur les SLA (engagements de services) et/ou sur les problématiques de disponibilité et de retour à la normale : s’engager sur ce type d’exigences est difficile, surtout quand on sait que la disponibilité d’un système d’information ou d’une application n’atteint jamais les 100 % ! - sur la conservation et la disponibilité de l’information : d’une part, la DSI ne peut pas décider seule de la politique de conservation des données, les utilisateurs doivent être impliqués dans la démarche. D’autre part, l’archivage représente un coût financier non négligeable pour les entreprises, même si la baisse des coûts des technologies a eu un impact positif sur le coût de l’archivage des données. Les DSI sont également sollicités en matière de gestion du patrimoine informationnel. 52 | De la dématérialisation à l’intelligence économique Or, sur ce terrain, il est nécessaire d’éduquer les utilisateurs, d’autant que les règles comptables ne nous aident pas beaucoup... La valeur des actifs immatériels ne figure pas dans les bilans. Les systèmes d’information ne sont donc pas valorisés comme ils le devraient. Dans une société industrielle, on considère que les produits et les machines forment l’actif des entreprises. Or, ce qui est plus important pour un groupe comme Essilor, ce n’est pas la conception du produit (les verres), mais le procédé qui permet de fabriquer les produits de façon automatisée, avec une très bonne qualité. Or, le procédé est un système d’information. C’est la connaissance (non brevetable) de ce système qu’il importe de protéger. Au-delà de ces problèmes techniques, liés aux process, aux technologies et aux méthodologies, la problématique de protection du patrimoine informationnel réside dans la culture et la formation des dirigeants des entreprises. La multiplicité des supports de diffusion de l’information complexifie l’archivage des données Si l’on admet que l’information constitue la mémoire de l’entreprise et si l’on se réfère à ce que nous expliquent les psychologues, l’élément le plus important dans la mémoire humaine, c’est la capacité d’oubli, d’effacement ! D’où un problème concret pour nous, DSI : qu’efface-t-on et comment efface-t-on ? Par exemple, effacer un mail peut sembler très simple mais, en réalité c’est impossible ! Simplement parce qu’un mail adressé à plusieurs personnes se retrouve stocké à plusieurs dizaines d’exemplaires, sur les postes de travail, sur les serveurs et sur les supports de back up. Il en va de même pour l’effacement des données, tout aussi complexe quand celles-ci sont disponibles sur plusieurs supports. La problématique de l’archivage des données se pose aussi pour la gestion des doublons. Je ne connais pas de méthode pour dédoublonner les données à l’échelle de l’entreprise afin de conserver une information en un exemplaire en un seul endroit. L’archivage implique-t-il de savoir ranger les données ou de savoir les chercher ? L’archivage, tel que je le conçois, correspond aux actions de ranger, d’indexer. Or, nous voyons apparaître dans les entreprises une génération qui a l’habitude de ne plus ranger mais de savoir chercher. Autrement dit, on laisse le système se débrouiller en demandant aux utilisateurs d’apprendre à chercher. Or, le rangement est individualiste et n’est pas transmissible. Tout le monde peut interroger Google et retrouver une information dans un univers non rangé. Dès lors, que devient le | 53 De la dématérialisation à l’intelligence économique concept d’archivage dans une société où ce qui a accompagné le développement économique et scientifique réside précisément dans les capacités des utilisateurs à catégoriser et à classer les informations ? On peut certes apprendre à ranger mais tout va trop vite... Chacun peut en faire l’expérience avec des messageries qui débordent de mails non rangés, faute de temps à consacrer à cette tâche ! Aujourd’hui, Essilor travaille avec des robots de picking, dont la fonction est d’optimiser la production des verres. Une expérience a été menée récemment sur la recherche des derniers verres produits. Dans une première approche, les verres ont été rangés manuellement par catégories, selon leur puissance. Or, nous nous sommes aperçus que la meilleure façon d’assurer cette tâche de recherche était de laisser faire le robot. Mais en procédant ainsi, nous avons constaté que seul le robot sait où se trouvent les verres, les hommes eux ne le savent plus ! De fait, le rangement devient complètement inefficace. La tendance désormais est à ne plus ranger, d’autant que le prix du stockage diminue. De nouvelles approches organisationnelles Dans une entreprise, il existe trois façons de gérer l’information : - la réutilisation, essentielle pour ne pas effectuer la même tâche plusieurs fois ; - l’oubli : si on ne veut pas se faire submerger, il faut apprendre à oublier ; - la traçabilité : nous avons besoin de tracer ce qui se passe. Dans les grandes entreprises, la gestion de l’information est très complexe parce que l’on ne garde pas seulement l’information finale, mais tous les éléments qui ont généré cette information. D’où un problème d’authentification pour identifier qui a modifié telle information, à quel moment, et en vertu de quels droits. Et lorsque le processus ne fonctionne pas, la responsabilité en revient au DSI. Cela nécessite une réflexion profonde sur la façon de faire travailler l’entreprise. Si l’on veut tracer tous les mouvements sur le SI au niveau le plus fin, le coût doit pouvoir être supporté. Ce problème est central car il en va de la responsabilité du DSI d’assurer la continuité du système d’information. En 25 ans de métier, il ne s’est pas passé un seul jour au cours duquel la menace d’une panne n’ait pas plané ! Les DSI connaissent tous ça… Le risque de ne pas pouvoir redémarrer immédiatement un SI qui tombe existe, et ce n’est pas qu’un problème technique : les aspects « méthode et formation » des dirigeants sont fondamentaux. Les DSI travaillent de plus en plus sur le mode de la prestation de services pour des clients internes. C’est difficile de défendre des coûts 54 | De la dématérialisation à l’intelligence économique considérés parfois comme excessifs si, en face, les clients internes ne comprennent pas vraiment les enjeux. Heureusement, les DSI ont quand même deux alliées naturels : la direction juridique (qui précise les contraintes réglementaires), et la direction financière (qui voit l’explo sion des coûts et veut réduire les volumes). Le plus souvent, il faut attendre les financements pour (ré)agir… nous ne sommes jamais à l’abri d’un problème. Je citerai deux exemples : - afin de connecter son PC au SI de l’entreprise, un utilisateur a mis un câble deux fois dans le même sens et a occasionné un court circuit : le réseau n’a pas fonctionné durant une demi-journée. C’est très difficile de prévoir et de diagnostiquer ce type d’incident. - notre système de messagerie, qui fonctionne sur des machines à tolérance aux pannes, est tombé en panne. Six mois plus tard, on ne sait toujours pas pourquoi ! En réalité, la sécurité est l’affaire de tous, ce n’est pas uniquement le problème du RSSI… D’ailleurs, chez Essilor, nous n’en avons pas (sinon, il serait responsable de tous les dysfonctionnements). Il est préférable d’agir pour responsabiliser les maîtrises d’ouvrage et les directions métiers. Et la première mesure de sécurité, c’est d’avoir des informaticiens heureux ! | 55 De la dématérialisation à l’intelligence économique L’intervenant Jean-Marie Giraudon est vice-Président de Gemalto. Il a plus de quinze ans d’expérience dans le monde de la sécurité. Il est responsable des activités du groupe Gemalto dans le domaine de la sécurité de l’entreprise. www.gemalto.com 56 | De la dématérialisation à l’intelligence économique Importance de l’identification et de l’authentification des personnes Par Jean-Marie Giraudon Sans que l’on s’en aperçoive vraiment, la révolution numérique a transformé notre vie quotidienne. Il est ainsi possible, en quelques clics, de transporter ses informations personnelles en tout lieu, d’acheter en ligne, d’écouter sa musique et de regarder la télévision partout, de faire du business n’importe où, à tout instant, de partager ses photos et blogs, de voyager plus facilement et de traverser les frontières sans contraintes en toute sécurité. Ce phénomène est exponentiel si l’on en juge par l’explosion du nombre d’utilisateurs d’Internet, de téléphones mobiles, de cartes de paiement... Nous n’avons pas imaginé la portée de cette explosion des échanges, qui est l’une des conséquence de la mondialisation. Croissance des échanges numériques, nouvelles menaces, nouveaux besoins de sécurité Ainsi, il se vendra environ 950 millions de téléphones portables dans le monde chaque année à l’horizon 2010. Les transactions par cartes de paiement s’élèveront à 130 milliards en 2009. Les investissements en sécurité sont, eux aussi, en forte croissance : la gestion des identités a représenté un marché mondial de six milliards de dollars en 2007. Mais la croissance des échanges numériques engendre de nouveaux risques : - le vol de mot de passe entraîne 10 % de l’indisponibilité des systèmes d’information au niveau mondial (source : Pricewaterhouse/CIO). - En moyenne un objet communicant (PC, téléphone, clé USB) est perdu toutes les 24 secondes dans les grandes villes comme Paris ou Londres (source : Gartner). - Le coût annuel d’un mot de passe oublié par 1 500 personnes sur une entreprise de 10 000 employés est de 50 000 euros par an (source Dunod, Protection des systèmes d’information). | 57 De la dématérialisation à l’intelligence économique - Bien que le « phishing » reste à ce jour une faible partie de la fraude à la carte bancaire, 74 % des porteurs ont des réticences à acheter en ligne (source : Gartner). Or, le besoin de chacun est de pouvoir se connecter en toute confiance et liberté. En réalité, La sécurité et la liberté individuelle convergent par exemple lorsque l’on peut acheter en ligne des objets rapidement et facilement, dans un environnement sécurisé, que l’on peut reconstituer un carnet d’adresses après le vol de son mobile... De même, cette convergence se concrétise lorsque le contenu des systèmes d’information de l’entreprise garde son intégrité vis-à-vis d’attaques malveillantes, lorsque l’on peut accéder et échanger ses données professionnelles, quelle que soit la localisation, lorsque l’on maîtrise la gestion de ses différents mots de passe quelque soit l’outil de communication, ou encore lorsque l’on peut accéder à des périmètres sécurisés dans les limites de ses droits d’accès. Les exigences des utilisateurs ont grandi avec le boom numérique, à la fois dans les domaines personnels, professionnels et gouvernementaux. Les individus ont besoin d’avoir à disposition des interfaces numériques simples à l’utilisation, d’être rassurés sur la protection de la vie privée et d’être assurés de la protection du flux Internet dans le cadre de ses propres transactions. Nous sommes aujourd’hui, au quotidien, confrontés à la sécurisation de l’information. Quand un consommateur achète en ligne, il ne doit pas se faire voler son numéro de carte : la confidentialité et l’intégrité sont des besoins incontournables. Les entreprises ont besoin d’outils simples et d’un bon rapport qualité/prix, l’assurance de pouvoir facturer les services offerts supportés par les réseaux numériques et de s’assurer de la sécurisation des données confidentielles de l’entreprise. Les collaborateurs nomades qui parcourent la planète doivent se connecter en permanence et envoyer des données sensibles. Il faut savoir qui fait quoi, qui a accès à quoi, pour quoi et se prémunir des intrusions, fraude, détournement d’informations. En outre, le stockage de l’information sur des clés USB accentue cette fragilité, avec le risque qu’elles tombent entre des mains pas toujours bienveillantes. Quant aux organisations publiques, elles ont besoin de promouvoir la dématériali sation de documents administratifs vis-à-vis du citoyen, de fournir des solutions à haut niveau de confiance pour le citoyen et pour le contrôle des frontières. Elles ont également besoin de mettre en place un cadre légal adapté aux nouvelles formes d’échanges avec le service public. 58 | De la dématérialisation à l’intelligence économique Renforcer la sensibilisation La sensibilisation et la prise de conscience ne sont pas toujours optimales : il suffit d’observer la façon dont on conserve les mots de passe dans les entreprises, souvent des dizaines sont nécessaires pour accéder à de multiples applications et ils sont inscrits sur des feuilles de papier ou des agendas. Même si cette conscience de la sécurité progresse, on a tendance à penser que les incidents n’arriveront qu’aux autres. Par rapport aux solutions déployées, par exemple les générateurs de mots de passe, on s’aperçoit qu’en France, selon les chiffres du Clusif, les deux tiers des entreprises ne font rien. Chez Gemalto, nous avons récemment rencontré un grand site marchand pour leur parler de sécurisation. Nous leur avons conseillé de prendre de nouvelles dispositions pour leurs clients. Un conseil qui est resté lettre morte dans la mesure où les dirigeants de ce site estimaient que leur taux de fraude n’était pas significatif. Trois mois plus tard, ils se sont fait volés un million de numéros de cartes bancaires, dans une opération de phishing ! Ces numéros sont ensuite utilisés, non pas pour faire des achats importants, mais pour effectuer des micro-transactions de quelques centimes, répétées chaque mois. C’est un business très lucratif. Par rapport à l’archivage des données, l’élément fondamental est d’être certain que ceux qui consultent ou manipulent les archives soient autorisés en fonction de leurs droits d’accès. Quand une entreprise donne un droit d’accès, elle doit savoir ce qui se passe. La gestion du contrôle d’accès « bout en bout » | 59 De la dématérialisation à l’intelligence économique Chaque acteur exige des niveaux de confiance. Pour les individus, il y a une crainte par rapport aux interfaces numériques. Il faut qu’elles soient simples et la raisonnement est le suivant : « si c’est simple je sais m’en servir et si je sais m’en servir je suis sûr de ne pas faire de mauvaises manipulations. Donc on va m’authentifier plus facilement. » A cela s’ajoutent les préoccupations liées à la protection de la vie privée. Les entreprises, elles, recherchent des outils simples et peu coûteux. Face à ces menaces et aux besoins de sécurité, les solutions d’authentification forte à base de carte à puce permettent de sécuriser la « vie numérique ». Dans l’entreprise, les solutions de mots de passe dynamique sont de ce point de vue prometteuses, du fait de leur fiabilité. Dans ce contexte, la machine et l’individu sont complémentaires. Et un même support permet d’offrir de multiples services. Les solutions d’authenfication forte à base de carte à puce sécurisent la vie numérique Elles permettent notamment la gestion du contrôle d’accès de bout en bout (voir schéma ci-dessus). La chaîne de valeur est ainsi de plus en plus étendue : serveur, carte, lecteur, middleware, aplications.... C’est à la fois une question de sécurité logique et physique. L’identification ne concerne pas seulement la direction 60 | De la dématérialisation à l’intelligence économique informatique ou le responsable sécurité, car il y a un troisième acteur qui monte en puissance : le département RH. La DRH va ainsi devenir le dénominateur commun de l’authentification, dans un monde qui demande de tels niveaux d’identification. Identification / Authentification : les travaux de FedISA Les entreprises ont des besoins croissants en matière de contrôle d’accès physique et logique. Cette commission FedISA s’inscrit dans les nouvelles problématiques de sécurité autour de l’authentification et de l’identification forte. Dans ce contexte, la commission Identification/authentification a pour objectif d’étudier tous les aspects des problématiques d’authentification/ identification. Il s’agit ainsi d’analyser : - La chaîne informatique pour gérer le contrôle d’accès et ses solutions pratiques (cartes, clés USB etc.). - Les mécanismes de contrôle d’accès : scénarios de risque : pertes directes et indirectes, risque maximum admissible et assurances. - L’évaluation de la force des mécanismes de contrôle d’accès physiques et logiques. - L’audit des mécanismes de contrôle d’accès et solutions. - Le contrôle d’accès vis-à-vis des données sensibles de l’entreprise (scénarios de menaces, échelle de criticité, classement et solutions d’amélioration du niveau de sécurité du contrôle d’accès). - La mutation des solutions informatiques de contrôle d’accès : processus, upgrade et retour sur investissement (ROI). - Le contrôle d’accès et besoin de traçabilité dans l’entreprise : portée et limites. www.fedisa.eu | 61 De la dématérialisation à l’intelligence économique L’intervenant Le 31 décembre 2003, Alain Juillet est nommé Haut Responsable Chargé de l’Intelligence économique au Secrétariat Général de la Défense Nationale (SGDN) par le Président de la République Jacques Chirac suite au rapport « Intelligence économique, compétitivité et cohésion sociale » du député Bernard Carayon. www.intelligence-economique.gouv.fr 62 | De la dématérialisation à l’intelligence économique Protection du patrimoine informationnel : enjeux et stratégies d’intelligence économique Par Alain Juillet « Nous sommes dans la guerre de la connaissance », nous a expliqué Jacques Attali à l’occasion de la publication de son rapport sur la modernisation et la libéralisation de la croissance française. Cette notion traduit la possibilité d’un conflit dans lequel un certain nombre d’acteurs vont tenter de récupérer les connaissances qu’ont les autres. Sachant que la connaissance est un ensemble d’informations traitées et retraitées, il s’agit ici, clairement, de guerre de l’information. Un nouveau paysage concurrentiel Ne soyons pas naïfs, et nous avons encore trop tendance à l’être dans notre pays. Il faut être conscient que nous sommes entrés dans un monde qui sera particulièrement dur car terriblement concurrentiel. Notre monde est en train de basculer comme le démontre tous les soubresauts que nous sommes en train de vivre. Nous entrons dans un monde dans lequel l’information constitue la clé essentielle tandis que le nombre d’acteurs susceptibles d’occuper le premier rang devient exponentiel. Il y a vingt ou trente ans, il y avait seulement une quinzaine, une vingtaine de pays qui dominaient le monde. Leurs entreprises contrôlaient les marchés avec des systèmes et des régulateurs économiques qui permettait de gérer l’ensemble des opérations à notre profit quasi exclusif. Le début du XXIème siècle nous fait entrer dans une compétition dans laquelle, avant dix ans, il y aura plus de cent pays dans cette situation, soit un nombre de pays concurrents multiplié par cinq ou six. Toutes les entreprises de ces pays vont être à la fois les sentinelles, les acteurs, et les opérateurs de cette bataille au niveau mondial dans laquelle chacun va essayer de capitaliser sur ses points forts. Or nous allons | 63 De la dématérialisation à l’intelligence économique découvrir que chacun peut en avoir à l’image de Bangalore, en Inde, où 900 000 opérateurs font de l’informatique. Il y a plus d’informaticiens à Bangalore qu’il n’y en a dans toute la France ! Et ce n’est qu’un début. Dans la compétition mondiale, face à des gens efficaces et qui savent travailler. il faut des capacités de réponse. C’est tout le problème de la recherche et de l’innovation, de la capitalisation sur les savoir faire, de la capacité à identifier les opportunités de marché. Tout est marché car nous n’avons plus de communautés d’intérêts, d’Empires ou de Commonwealth. Aujourd’hui, chacun peut aller et réussir partout s’il apporte la bonne proposition de valeur, celle que l’autre attend : c’est le client qui est roi et plus le fournisseur. Reconnaissons que nous l’avons un peu oublié dans notre pays ces derniers temps. Favoriser la conscience des menaces D’un autre côté, il faut être conscient des menaces qui peuvent arriver de tous côtés. Faire face, saisir les opportunités, développer les savoir faire, la recherche, l’innova tion, impliquent d’aller chercher toutes les informations utiles, de les transférer, de les stocker pour les utiliser, face à cette centaine de pays qui vont devenir concurrents par leurs entreprises. Si nous ne sommes pas capables de le faire, de détecter ce que font les concurrents, les attaques qui se préparent nous rayerons de la carte. L’enjeu est simple : il y aura des perdants et des gagnants. Si la vieille Europe ne réagit pas, elle aura perdu. Fort heureusement, nos pays, nos entreprises, l’ont compris. Elles commencent à se mettre en ordre de bataille en élaborant des politiques de collecte d’informations et de développement des produits et services hors de l’Hexagone. Il faut reconnaître qu’elles se défendent plutôt bien sans pour autant tomber dans un protectionnisme totalement ringard. D’ailleurs, comment pourrait-on mettre en place des barrières pour se protéger alors que notre seule condition de survie c’est d’aller vendre à l’extérieur de nos frontières ? Si nous en érigeons, nos concurrents en érigeront également chez eux. Ceci étant, développer cette capacité d’acquisition et de traitement de l’information pour acquérir la connaissance afin d’être plus compétitif au niveau mondial suppose que nous développions des moyens de protection du patrimoine informationnel. Il faut des systèmes de protection pour éviter qu’on viennent nous piller, nous prendre l’essentiel ou, pire qu’on vienne injecter dans nos systèmes des informations erronées 64 | De la dématérialisation à l’intelligence économique pour fausser nos stratégies et nos raisonnements. Cette nécessité de protection plus globale commence par un état d’esprit. Aujourd’hui, si l’on dispose d’un mot de passe, d’une carte à puce, d’un droit d’accès, on peut rentrer dans n’importe quel système d’information, ce dont ne privent pas les hackers. Certes, c’est illégal, mais il faut être conscient que l’on doit lutter contre ce phénomène et prendre les mesures techniques et intellectuelles pour se protéger. Toute perte de capacité ou de valeur du patrimoine informationnel, qui regroupe nos savoir-faire, nos connaissances peut être catastrophique pour l’entreprise. C’est même mortel pour l’emploi de demain alors que l’on ne se bat plus pour nous-mêmes, mais pour l’avenir de nos enfants. Changer les mentalités Rappelons-le : nous sommes dans un système dans lequel de plus en plus de concurrents vont essayer de récupérer des informations utiles pour eux. Il faut en être conscient et mettre en place des barrières de protection que ne doivent pas seulement reposer sur des cartes à puces ou des espaces de confiance. Cela va plus loin. Lorsque je visite des entreprises et que je vois sur les écrans des stickers avec les mots de passe d’accès aux ordinateurs, je me dis qu’il y a un grave problème car les salariés n’ont pas compris les enjeux de la protection du patrimoine informationnel. Nous sommes parfois d’une naïveté confondante. On ne pense pas que d’autres puissent commettre des actes que nous ne ferions pas. Sans parler de certains stagiaires dont la mission est de collecter des informations, ou de nos chercheurs qui, selon le principe qu’il faut publier pour être reconnu, mettent en toute bonne foi sur la place publique les résultats d’années de recherche. Il faut être sérieux : en face de nous, des concurrents ayant besoin de rattraper leur retard économique et technologique, utilisent des moyens de piratage de l’information et du patrimoine. Il ne s’agit pas de susciter une phobie face aux chinois ou aux indiens ou à certains de nos alliés mais être conscient qu’information rime avec désinformation : 20% de l’information que l’on lit ou entend est fausse ! Non pas parce que ceux qui la produisent trompent leur public mais parce que les médias véhiculent les fausses informations qu’ils n’ont pas le temps de recouper. La vérité peut éclater six mois plus tard, mais tout est oublié. Il faut changer de mentalité et ne pas accorder une confiance aveugle à un système parce que l’information qu’il véhicule est chiffrée. Les failles existent toujours. Il est possible d’injecter des informations sous n’importe quelle forme pour fausser les analyses. Ce n’est pas la guerre de demain, c’est la guerre d’aujourd’hui, dans un environnement où l’on a quitté le monde de l’offre et | 65 De la dématérialisation à l’intelligence économique de la demande pour entrer dans le monde de la connaissance. Or, le combat pour la maîtrise de la connaissance suppose la maîtrise de l’information. Nous devons sortir du patrimoine traditionnel pour privilégier la notion de patrimoine immatériel. C’est difficile, dans un monde piloté par des normes financières inspirées par les anglo-saxons où la propriété matérielle détermine la valeur des entreprises. Aujourd’hui, on s’aperçoit que cette vision comptable est erronée car incomplète puisqu’elle ne prend pas en compte le patrimoine immatériel. Ceci a eu des résultats pervers : lorsque l’on veut améliorer le résultat d’une entreprise, on préfère réduire l’investissement en recherche-développement ou sous traiter plutôt que d’investir dans une usine parce que cela ne dégage pas de retour sur investissement dans les trois ans. Cela conduit à fragiliser le futur de l’entreprise qui, elle, s’inscrit dans la durée. On observe toutefois une évolution : les fonds d’investissements importants tendent à abandonner leur vision court-termiste à trois ans et travaillent de plus en plus sur un horizon de sept à dix ans. Nous aussi nous devons évoluer pour gagner la compétition qui s’ouvre. Il va falloir prendre le virage de l’acquisition et du traitement de la connaissance, tout en renforçant nos capacités de protection. 66 | De la dématérialisation à l’intelligence économique | 67 De la dématérialisation à l’intelligence économique Pour en savoir plus Challenges pour les DSI Cet ouvrage s’adresse aux DSI actuels et futurs. Comment mener la fusion de deux SI ? À quelles métriques et à quels tableaux de bord faut-il se référer ? Comment aligner le SI sur la stratégie de l’entreprise ? Faut-il « outsourcer » les télécoms ? Voici quelquesunes des questions auxquelles toute direction des systèmes d’information peut aujourd’hui se trouver confrontée. Cet ouvrage est le fruit de la collaboration entre le Cigref qui a apporté son expérience des systèmes d’information des grandes entreprises françaises et deux grandes écoles, HEC et l’École des Mines de Paris, qui ont su formaliser des méthodes d’analyse et de réflexion sur le pilotage des grands projets informatiques dans le cadre d’un mastère spécialisé. L’objectif de cet ouvrage est de stimuler la réflexion du lecteur en lui proposant 21 études de cas réels. L’étude de cas est l’outil d’apprentissage et de perfectionnement le mieux adapté pour apprendre à maîtriser les situations à forte complexité que l’on rencontre fréquemment dans les systèmes d’information d’aujourd’hui. Les auteurs Alain Berdugo, professeur au Groupe HEC et Robert Mahl, professeur à l’École des Mines de Paris, sont les responsables du mastère spécialisé « Management des systèmes d’information et des technologies ». Jean-Pierre Corniou est Président d’EDS Consulting Services France. Il a été directeur des technologies et systèmes d’information de Renault, et Président du Cigref. Jean-François Pépin en est le délégué général. Le Cigref, Club informatique des grandes entreprises françaises, regroupe 115 grandes sociétés. Sa mission est de promouvoir l’usage des systèmes d’information comme facteur de création de valeur pour l’entreprise. 68 | De la dématérialisation à l’intelligence économique Le point de vue de Robert Mahl L’idée de cet ouvrage est apparue avec le besoin d’exprimer de façon vivante à nos étudiants ce qu’est le système d’information, à partir d’études de cas que nous n’avions pas, sauf à prendre des études de cas d’origine anglosaxonne. Nous avons envoyé des étudiants dans les entreprises et sélectionné le meilleur de ce qu’ils ont étudié. Les cas traités dans cet ouvrage abordent 21 différentes problématiques, depuis le e-procurement, la gouvernance, jusqu’à l’urbanisation, en passant par la conduite du changement. Il ne s’agit pas de cas abstraits, nous avons étudié des vraies entreprises, des vrais projets menés par des vrais chefs de projets, nous avons seulement changé les noms et les sigles. | 69 De la dématérialisation à l’intelligence économique Pérennité du système d’information Cet ouvrage s’adresse aux DSI (directeurs des systèmes d’information), aux RSSI (responsables de la sécurité des systèmes d’information), aux risk managers, aux directions métiers qui sont confrontées régulièrement aux impératifs de haute disponibilité et de continuité d’activité des systèmes d’information. Les entreprises françaises souffrent d’un étrange paradoxe : d’un côté tout le monde admet que le système d’information constitue l’épine dorsale du fonctionnement opérationnel de l’entreprise, d’un autre côté les actions engagées pour en garantir la disponibilité sont loin d’être toujours probantes. Partant de ce constat cet ouvrage propose une démarche pratique : d’abord une méthodologie pour optimiser la disponibilité et la pérennité du SI, ensuite une approche pour évaluer les risques et réaliser un audit, et enfin quelques pistes pour la gestion de crise. Les auteurs René Hanouz est chef d’entreprise et expert européen dans le domaine de la qualité et de la sécurité des SI. Ancien vice-président du Clusif (Club de la sécurité des systèmes d’information français). Il est membre invité du Forum des compétences. Paul de Kervasdoué, ancien DSI dans le secteur bancaire, est le fondateur d’Aquis et consultant spécialisé en sécurité des SI. II est également membre de la FedISA (Fédération de l’ILM, du stockage et de l’archivage). Philippe Rosé, docteur ès sciences économiques, est journaliste spécialisé dans le management des systèmes d’information et la sécurité. Il est éditeur de Best Practices Systèmes d’Information et ancien rédacteur en chef du magazine CIO - Management des systèmes d’information, qu’il a co-fondé en 2002. II est également responsable éditorial du référentiel Protection des systèmes d’information chez Dunod. 70 | De la dématérialisation à l’intelligence économique Le point de vue de Paul de Kervasdoué La pérennité du système d’information recouvre tout ce qui concerne la continuité de service ou d’activité, c’est à dire les atteintes à la disponibilité du système d’information. Dans cet ouvrage, nous proposons une méthodologie pratique ainsi qu’un progiciel : « Continuity Plan Secours » (téléchargeable directement sur le site de Dunod) pour bâtir, tester et gérer votre Plan de continuité. Un plan de continuité permet, face à un accident ou une malveillance, de pérenniser votre système d’information, c’est à dire qu’il continue à fonctionner après un accident ou une malveillance. Il s’agit donc de garantir la continuité de la disponibilité de votre système d’information. On distingue deux notions : le plan de continuité de service et le plan de continuité d’activité. Dans le premier cas, on s’intéresse aux seuls aspects informatiques et télécoms, dans le second, il faut prendre en compte aussi l’hébergement des collaborateurs-métiers. Par exemple, pour redémarrer l’activité d’une salle des marchés, la mise à disposition du seul système d’information n’est pas suffisante, il faut également héberger physiquement les traders et leur donner les moyens d’exercer leur métier professionnellement et en toute sécurité, dans des locaux d’hébergement provisoires. Un plan de continuité doit être soigneusement préparé. Cela passe par une analyse et un chiffrage des risques d’indisponibilité. Dans l’ouvrage : « Pérennité du SI » nous étudions le cas pratique réel d’une société d’investissement boursier (Banque X) et démontrons que les pertes directes ne représentent qu’un huitième du total des pertes. Les pertes indirectes représentent alors 87% du montant total du sinistre brut. Il est essentiel de bien auditer les facteurs de disponibilité et de traçabilité, en réalisant un diagnostic de sécurité ISO 27001. Cela permet de jauger le niveau minimum de sécurité en matière d’infrastructure, soit par exemple en termes disponibilité de réseaux télécoms et de qualité des sauvegardes des données et programmes. Cela s’opère à l’intérieur du périmètre de la cible du plan de continuité. Il importe également d’évaluer vos contraintes professionnelles de disponibilité : par exemple, dans une banque, les activités de marchés doivent redémarrer en une demi-journée tandis que pour l’activité de crédit bail, un redémarrage en 48 heures suffit. Il y aura donc au minimum pour cette banque deux cibles distinctes avec des critères de niveau de disponibilité spécifique : haute disponibilité pour la « Salle des Marchés » et basse disponibilité pour la société de Crédit Bail. | 71 De la dématérialisation à l’intelligence économique Dématérialisation et archivage électronique Cet ouvrage s’adresse aux responsables des systèmes d’information, ainsi qu’à tous ceux qui dans leur métier (administration, finances, industrie, RH...) ont la responsabilité de mener à bien des projets de dématérialisation et d’archivage sous forme numérique. A l’ère du web, des intranets et du commerce électronique, gérer des données numériques éventuellement d’origine papier, les transmettre, les utiliser, les échanger, puis les archiver de manière à pouvoir y accéder rapidement est une préoccupation qui concerne chaque jour un nombre croissant d’entreprises, ne serait-ce que par rapport à des obligations légales et réglementaires. La première partie de cet ouvrage dresse un panorama complet des contraintes liées à ces projets tant sur les plans techniques qu’organisationnels ou juridiques. La seconde partie cherche à apporter des réponses en fournissant des méthodes et des solutions pratiques pour la mise en place de projets de dématérialisation et par voie de conséquence d’archivage électronique. Les auteurs Jean-Marc Rietsch est expert en archivage électronique, plus particulièrement pour les aspects conformité, économie et risque, il a publié un livre et de nombreux articles sur ce sujet. Il est le président de FedISA (Fédération européenne de l’ILM, du stockage et de l’archivage. Marie-Anne Chabin est expert dans le domaine des archives et de l’archivage. Elle a fondé le cabinet d’expertise Archive 17 (www.archive17.fr). Elle est membre fondateur de FedISA. Eric Caprioli est avocat à la Cour, docteur en droit, associé-fondateur de Caprioli & associés, expert aux Nations unies sur les TIC, la sécurité et les risques informatiques. Il est administrateur de FedISA. 72 | De la dématérialisation à l’intelligence économique | 73 De la dématérialisation à l’intelligence économique Sites web utiles www.fedisa.eu www.cigref.fr www.bestpractices-si.fr www.intelligence-economique.gouv.fr www.dunod.com www.netapp.com www.caprioli-avocats.com www.imprimerienationale.fr www.ensmp.fr www.gemalto.com www.reedexpo.fr 74 | De la dématérialisation à l’intelligence économique Fédération de l’ILM (Information Lifecycle Management), du Stockage et de l’Archivage FedISA est la première association qui regroupe à la fois des groupes d’utilisateurs des intégrateurs des experts techniques et juridiques des fournisseurs de technologies, matériels et logiciels FedISA, a pour mission d’informer et d’assister les utilisateurs, de fluidifier et de participer au développement du marché de la gestion et de la conservation de l’information électronique. FedISA s’est fixée pour principales missions : - d’informer et assister les utilisateurs sur les nouvelles technologies, les nouveaux processus et les nouvelles réglementations en effectuant une véritable veille tant technologique que juridique, normative ou encore organisationnelle. - d’aider les responsables de projet à justifier leurs dossiers : - en les sensibilisant aux nouvelles technologies et aux obligations correspondantes ; normatives, organisationnelles, juridiques et réglementaires, - en leur permettant d’estimer les risques encourus (légaux et financiers) et les avantages compétitifs comme une meilleure réactivité. - de fluidifier et participer au développement du marché de l’archivage électronique et de la gestion et de la conservation de l’information. - de favoriser la mise en place des « certifications et des référencements » relatifs aux tiers archiveurs, aux outils matériels et logiciels et aux systèmes internes d’archivage des entreprises. www.fedisa.eu | 75