mardi 27 septembre 2016
 
L'INFORMATICIEN N°37
Numéro de juin 2006

INF37_001.jpgDans ce numéro, L'Informaticien se fait visionnaire et vous propose de découvrir avant l'heure les recoins de Windows Vista et d'Office 2007. Sans boule de cristal, nous vous dévoilons pourtant les bonnes configurations à adopter pour optimiser l'utilisation et le déploiement du nouvel environnement Microsoft. Sur l'autre pôle de la planête informatique, les amateurs de logiciels libres pourront parcourir nore Top 15 de l'Open Source : quels sont les meilleurs outils professionnels ? venez y applaudir - ou y découvrir - les oscars du Serveur Web, du SGBD, etc...Enfin, ceux qui suivent nos feuilletons avec avidité peuvent y lire le deuxième épisode de la saga "L'avenir de Java" : ce mois-ci, on y parle de composants EJB 3.0 et de plate-forme d'entreprise Java EE 5.0. Bonne lecture !
Concours
Réduire
Imagine Cup
Le sprint final
Par Bertrand Garé - copyright l'Informaticien, tous droits réservés

ImgineCup.jpgAprès la clôture des inscriptions, le 15 mars dernier, le concours organisé par Microsoft est bientôt arrivé à son terme et la finale approche. Il reste la dernière étape des sélections régionales à franchir pour décrocher son billet pour l’ultime épreuve de cet été à New Delhi, en Inde.

Le bilan des inscriptions est plus que satisfaisant. Pour l’ensemble des compétitions dans les différentes catégories (voir nos articles précédents sur le sujet), ce sont près de 60 000 inscrits qui étaient sur la ligne de départ. En France, ils étaient près de 8 000 à concourir, la plupart dans la catégorie jeux avec la compétition sur le Projet Hoshimi, patronné par Microsoft France. Au soir de la finale, ils ne seront plus que 16. Après les premiers dépouillements des résultats, des équipes françaises sont bien placées dans les catégories
« Algorithme » et « Système et réseaux ». Six équipes dans la catégorie « Software Design » vont se disputer le soir de la finale la possibilité de mettre en œuvre leur application en Inde.


Des aides pour tous

Sur le Projet Hoshimi, le site officiel a mis en place différentes missions d’entraînement pour aider les étudiants à parfaire leur connaissance du SDK utilisé pour le développement et affiner leur stratégie de jeux, point fondamental d’un bon résultat lors des compétitions. Ces différentes missions facultatives s’inséraient dans le scénario général de la recherche de la cité perdue, but du Projet Hoshimi. Nous vous proposons le scénario d’une de ces missions en encadré (désolé, c’est en anglais, comme la plupart des documents du concours !).
Les initiatives ne se sont pas cantonnées au seul site officiel. Boris Schapiro, étudiant à l’ESIEE, a lui aussi mis en place une compétition sur le thème d’Hoshimi avec une évolution du scénario.
Plus étonnant encore, le projet est entré dans un projet pédagogique innovant à l’École des Mines de Nancy. Laurent Ciarletta, enseignant-chercheur a mis en place un « bootcamp » sur le projet Hoshimi pour les élèves de l’option informatique. Pendant 4 jours, toute la journée et jusqu’à minuit pour les plus accrochés, les élèves ont ainsi pu découvrir le SDK d’une manière très ludique et réaliser leur premier code pour leurs équipes. Une mini-compétition se tenait chaque soir pour évaluer le travail effectué. Résultat : certains élèves peu enclins à trouver du plaisir dans cette option ont un peu changé leur fusil d’épaule et trouve aujourd’hui très sympa de pouvoir coder soi-même.

Prochain rendez-vous avec les résultats dans toutes les catégories, une interview d’un des vainqueurs…


TRAINING MISSION 4 : the entrance of the Mythical City Toukastha
In front of the eyes of the Toukasthas, Hoshimi brought the sacred tree back to life. The leaves came back to their beautiful color in a matter of hours. Seeing what they thought was a miracle, the Toukasthas authorized Hoshimi to approach the Chief, and let the professor cure him. The Chief couldn’t stay awake for very long and getting him to speak was very difficult. He only remembered that he was stuck in the neck with a needle. He was asked multiple questions about the city of Indraprastha, and he couldn’t help telling everything, something in the injection had forced him to reveal these secrets he had kept all his life. Hoshimi, with the authorization of the Toukasthas, removed nano-neurocontrollers from his brain. The chief recovered very fast. Understanding that Hoshimi and his crew had no bad intentions and only wanted to protect them, the Chief decided to guide them to the entrance of the city as an effort to protect his people and their secret. After gathering equipment and supplies, they were blindfolded and guided by the tribe to the secret city. Days of walking came next. Blindfolded, Hoshimi’s team traveled over water and through many jungles ; they were getting really exhausted. The 5th day, finally, the chief uncovered their eyes : they had arrived near a cave that seemed to be the entrance of the legendary city. The Chief, however, was worried ; the white tiger that usually guarded the entrance wasn’t behaving as usual. Immediately Hoshimi, Ori and Indira noticed the red eyes of the tiger, a sign of presence of nano-neurocontrolers in his body. The team does not feel fear but they feel great pity for the animal. The chief shares that the tiger has been at these gates for thousands of years and cannot be left in this condition. With great skills the Chief puts the tiger to sleep, with a special arrow. Before going any further, the team agrees to help this magnificent animal who guards the gates of Indraprastha. Your mission will be to deliver the tiger from nano-neurocontrolers controlling his mind and give him back his freedom.

Métiers
Réduire
Des sites d’emploi à la tonne
Par Bertrand Garé - copyright l'Informaticien, tous droits réservés

Les informaticiens vont devenir une denrée rare. Pour un employeur, cela revient de nos jours à rechercher le mouton à cinq pattes, parfois pour réaliser des projets bien précis. Heureusement, il dispose d’un panel de sites d’offres d’emploi dédiés aux informaticiens qui ne fournissent pas tous les mêmes services.


S’il est un secteur où l’internet est resté florissant après l’éclatement de la Bulle, c’est bien l’emploi. Il est vrai que le contexte économique et les prestations du service proposées par l’ANPE, laquelle ne couvre environ que 14 % du marché de l’emploi, ne permettent pas vraiment de répondre à toutes les demandes, souvent mal identifiées.
Par sa réactivité, le Web semble donc le vecteur le mieux adapté pour faciliter la rencontre des demandeurs d’emploi et des employeurs. Dans leurs pages, les annonces pour les informaticiens sont omniprésentes et sont souvent l’un des moteurs pour créer le trafic vers le site. Le public spécifique des informaticiens ayant le plus souvent l’habitude d’utiliser l’outil Internet, il y a régulièrement recours.


Des services de niveaux différents

Pour la plupart des sites visités, le dépôt de CV est gratuit pour le demandeur d’emploi. Le site propose la conservation de ce CV sur une durée plus ou moins longue. Bon an mal an, seuls les sites les plus importants retirent automatiquement votre CV au bout d’une période, le plus souvent de trois mois.
A contrario, votre CV n’est pas forcément croisé avec les demandes d’employeurs arrivant sur le site et peu de sites offrent véritablement un service d’alerte personnalisée sur votre CV, ou le profil que vous avez déposé lors de l’inscription et du dépôt de votre CV. Seuls les sites de haut niveau le prévoient. La plupart d’entre eux se contentent de vous envoyer un mail automatique lors de l’arrivée de nouvelles annonces sur le site. Cela génère, au moins au début, du trafic vers le site en question !
Peu de ces sites prennent en compte la spécificité des freelances. Cet état de fait est cependant en train de changer. Si des sites comme HiTechPro ou Freelance.com le font historiquement, d’autres webs s’y sont mis devant l’importance prise par le phénomène durant les dernières années.
Pour les employeurs, les « financiers » de ce type de sites, l’opération est le plus souvent payante pour passer l’annonce et avoir la possibilité de consulter la « CVthèque ». De ce côté, les employeurs utilisent largement le service de ces sites et il n’est pas rare de retrouver la même annonce sur différents sites.
La différence se joue réellement sur les autres services proposés comme l’aide à la rédaction du CV ou de la fiche pour l’employeur potentiel, le reporting sur les postes les plus recherchés ou sur les tendances du marché de l’emploi. Là encore HiTechPro se distingue avec un baromètre mensuel assez intéressant en s’appuyant sur les annonces déposées et les profils demandés. Jobpilot ou d’autres délivrent aussi ce type de statistiques et permettent de mieux situer la possibilité de trouver un emploi rapidement. Il existe cependant peu d’informations sur la rémunération selon les métiers et il est difficile de trouver des éléments concrets dans le domaine.


Des spécialisations de plus en plus fortes

Devant l’offre pléthorique du marché, certains sites, proposant particulièrement des annonces d’emploi sur les plates-formes de Microsoft, jouent la carte de la spécialisation en ne présentant que des emplois en rapport avec les outils de l’éditeur.
Dans le même secteur, le site WinProjobs vient de passer à une gratuité totale même pour les recruteurs. Cet effort est à noter car le site n’est pas pollué par d’innombrables bannières publicitaires. Pour l’instant ? Ce phénomène de spécialisation est particulièrement frappant dans le secteur graphique ou du développement Web. Il peut être étendu à quasiment tous les métiers. Le site en-ligne.fr offre tous les jours des annonces selon des secteurs, mais aussi des fonctions précises que ce soit dans le secteur de la recherche, de la santé de la communication ou de l’informatique et des télécommunications.


La qualité du développement logiciel est négligée
Menée par Compuware, une étude auprès de 184 directeurs informatiques de grandes entreprises informatiques européennes démontre que la qualité du développement logiciel est le plus souvent négligée. Près de 80 % (78,3 % exactement) n’appliquent pas régulièrement une méthodologie formelle d’assurance qualité. Plus de la moitié n’utilise donc pas d’éléments, comme le CMM ou Six Sigma. La principale conséquence est de ne pouvoir assurer une amélioration de la qualité des produits fournis. Autre enseignement intéressant de cette étude, 44,5 % des entreprises réalisent ce contrôle de qualité au niveau des départements et non à un niveau plus global dans l’entreprise. Plus inquiétant, près de 30 % des entreprises interrogées admettent que l’équipe assurant l’assurance qualité n’est pas composée de personnes formées ou compétentes. Pour un autre tiers des équipes, si les équipes sont formées, l’encadrement n’est pas réalisé à temps plein. 12 % utilisent des métriques pour mesurer la qualité… mais ne s’en servent pas ! Seul un noyau de 14,1 % figure comme bon élève, avec un plan formel d’amélioration de la qualité applicative, réalisant des analyses régulières et prenant des mesures en fonction des résultats obtenus.




L’eLearning devient informel
Dans un rapport paru au début du mois de mai, le cabinet d’études Forrester Research fait le point sur les tendances 2006 dans le secteur de l’eLearning. Celui-ci deviendrait de plus en plus informel en se rapprochant des missions immédiates de l’employé avec un apprentissage à la carte par l’intégration dans les applications et un accès facilité (souvent par un simple clic). L’étude remarque aussi que les entreprises recrutant beaucoup de jeunes commencent à mettre en place un apprentissage en utilisant de nouveaux médias, comme les blogs, les wikis et même le podcast.




Une offre multi-compétences dans le cadre du DIF
Le droit individuel à la formation (DIF) est inscrit dans le texte de la loi depuis mai 2004. Si l’année dernière a montré un certain attentisme sur ce dossier, l’année en cours semble plus prometteuse. Les tendances actuelles démontrent cependant une demande forte vers des aménagements d’horaires dans le cadre de cette formation individuelle et vers une simplification de l’offre de formation en proposant des catalogues regroupant différents aspects d’une formation. Avolys, une SSII spécialisée dans la formation informatique, a rebondi dans sa division territoriale de Normandie en s’alliant avec deux autres instituts de formation, l’un spécialisé dans l’apprentissage de l’anglais et l’autre dans le développement personnel et du projet professionnel. Localement, l’initiative semble séduire les entreprises, principalement les grands comptes.




Formation à l’administration de Linux
Le Centre d’Éducation Permanente de Nanterre-Paris-X propose huit modules qualifiants et professionnalisants autour de /proc et /sys pour la configuration statique et dynamique du noyau Linux. La formation vise des personnes disposant d’une expérience en exploitation, administration ou développement, opérant dans un environnement Linux ou apparenté (Unix). La connaissance de l’utilisation de l’exploitation de base de Linux ou d’Unix est un pré-requis. La formation se déroule de manière discontinue par des regroupements de 1 à 3 jours. Les formateurs mettent un PC à disposition et l’animation pédagogique se fait par vidéoprojecteur. Plusieurs formules de financement sont possibles. Le prix du cycle complet de formation avec tous les modules se monte à environ 5 000 euros.


Livres
Réduire
Linux, configuration du système
Par Xavier Leclercq - copyright l'Informaticien, tous droits réservés

LIVRE_ENI_COUVERTURE.jpgSaviez-vous que le noyau 2.6 comporte plus de 6 millions de lignes de codes ? La raison en est très simple : il s’agit d’une architecture monolithique modulaire, et non d’un micro-noyau (comme Mach) qui nécessite beaucoup moins de lignes de codes. En langage plus clair, le noyau Linux 2.6 comporte de nombreux modules logiciels, et si vous désirez qu’un périphérique soit reconnu le premier réflexe à avoir est de mettre à jour votre noyau, et puis et surtout de le configurer convenablement. Et comme le fait très justement remarquer l’auteur, « ceci n’est pas une démarche naturelle pour les personnes venant d’autres horizons informatiques ». Autrement dit, un utilisateur qui n’a pas connu d’autre planète que celle de Windows, n’aura pas le réflexe de compiler quoi que se soit pour optimiser son système.
Concrètement, cet ouvrage est extrait du livre « Mandriva Linux 2006 – Administration du système » paru dans la collection Ressources Informatiques du même éditeur. Il comporte 6 chapitres, remplissant 208 pages et couvre les sujets suivants : gestion de la mémoire et des ressources système ; planification (tâches cron, anacron, at) ; sauvegarde et restauration ; sécurité (définitions, authentification, autorisation, ACL) ; journaux (fichiers de journalisation, Syslog, logrotate, analyse des fichiers log) ; et, enfin, compilation du noyau Linux.
Nicolas Pons est instructeur dans un centre de formation et cela se ressent à la lecture de ce livre, car le langage utilisé est limpide, sa plume est fluide et il va clairement au but. Néanmoins, il est nécessaire de posséder des connaissances Unix, ou minimales sous Linux, avant d’aborder sa lecture. Si vous ne savez pas ce qu’est une ligne de commande, passez votre chemin – pour l’instant. Les illustrations sont fort rares et seuls une petite poignée d’outils présentés sont graphiques (gtop, drakbackup, File-Roller). En outre, et même si la partie compilation du noyau est assez générique, vous ne vous sentirez vraiment concerné que si vous êtes utilisateur de Mandriva ou d’une distribution s’appuyant sur Red Hat.


QUATRE QUESTIONS A NICOLAS PONS

L’Informaticien : Ta vie professionnelle tourne-t-elle autour de Linux ?
Nicolas Pons : J’ai 31 ans et j’ai connu GNU/Linux à mon entrée dans le monde professionnel. Lors de mes études en informatique à Montpellier, je ne voyais des logiciels libres qu’une ligne de commande me permettant de compiler tel ou tel projet. C’est en arrivant dans la société Rapsodie qu’on m’a donné comme stage en entreprise de fin d’étude la mise en place d’une passerelle GNU/Linux pour donner un accès Internet sécurisé à un réseau local. Comme nous possédons une salle d’hébergement avec une grande proportion de machines GNU/Linux, on peut dire qu’effectivement Linux est impliqué dans ma vie professionnelle. De plus, je passe une bonne partie de mon temps aujourd’hui à animer des formations Linux.
L’I. : Quel est pour toi la meilleure distribution Linux et pour quelles raisons ?
N. P. : En quelques mots, ça va être dur et je ne voudrais pas lancer de troll. En fait, je pense que chaque distribution possède ses qualités et défauts, la meilleur distribution est celle qui correspond aux goûts de l’utilisateur, aux compétences des administrateurs, aux contexte de sécurité, aux besoins applicatifs… RedHat parce que c’est la première distribution que j’ai connue ; Fedora Core et Mandriva parce que ce sont de bonnes distributions polyvalentes et pour mon poste de travail, j’aime bien avoir les tout derniers graphiques intégrés au bureau ; Debian, c’est l’une des plus stables que je connaisse et on peut encore installer un système minimal sans avoir un giga-octet de données copié d’office sur les disques ; SuSE, parce qu’on peut réellement – administrer sa distribution avec un outil graphique YaST et enfin Knoppix, qui est la distribution vitrine de GNU/Linux.
L’I. : Faut-il toujours recompiler son noyau ?
N. P. : Oui et non. Pour répondre très brièvement, c’est loin d’être une obligation pour avoir un système fonctionnel, mais cela devient nécessaire pour en optimiser la sécurité.
L’I. : D’autres projets en cours ?
N. P. : Un livre d’administration sur Fedora Core 5 pour mettre à jour celui sorti en septembre 2005.
Site personnel de l’auteur :
http://www.epons.org/
Sommaire
Réduire
MATÉRIEL
• PROCESSEURS - AMD ne relâche pas la pression sur Intel
• TECHNOSCOPIE - Les débuts laborieux de la RFID

LOGICIEL
• PALMARES - Le Top 15 de l’Open Source : Les meilleurs outils professionnels
• BONNES FEUILLES - Le clonage express d’un système Linux. Un extrait de l’ouvrage « Administration Linux à 200% » qui vient de paraître chez O’Reilly.
• APPLICATIONS HÉBERGÉES - Intégrer Windows et Web : LIVE, la nouvelle vie de Microsoft ?

DOSSIER
• Préparez-vous aux déploiements de Windows Vista et office 2007
• MONDIAL - Le douzième homme numérique : Des programmes pour décortiquer les matches.

RÉSEAU
• PLAN DE SÉCURITÉ - Sensibiliser les utilisateurs aux vulnérabilités de l’informatique

DÉVELOPPEMENT
• L’AVENIR DE JAVA (suite) - Composants EJB 3.0 et plate-forme d’entreprise Java EE 5.0
• DOTNET - ConfigurationManager : Le chef de projet de vos processus
• CONCOURS - Imagine Cup : Le sprint final

ITINÉRAIRES
• MÉTIERS - Des sites d’emploi à la tonne - Les nouvelles formations
• LIVRES - « Linux, configuration système » de Nicolas Pons
Edito
Réduire
Le mauvais alibi de l’Offshore

newstef26526_Copier5.gifDans sa dernière enquête réalisée auprès de 42 000 informaticiens répartis dans 124 entreprises, le cabinet Oberthur Consultants indique que les salaires des informaticiens ont progressé de 4,5% en 2005, soit trois points de plus que l’inflation. Ainsi, la profession rattrape l’écart pris durant les années 2002 ou 2003.
Faut-il voir dans cette soudaine générosité des employeurs une reprise de l’activité économique ? Certainement, mais il ne s’agit pas du seul facteur, loin s’en faut. En effet, la même étude nous indique que les SSII ont du mal à fidéliser leurs équipes et que le taux de démission a approché voire dépassé (en région parisienne) les 10% sur l’année 2005.
De fait, certaines professions comme les analystes en systèmes d’information ou les fonctions « Etudes et développement » ont enregistré des hausses de rémunérations de près de 10% et des taux de démission de 15%. De manière générale pour l’ensemble des informaticiens et non pas les seuls employés de SSII, le taux de démission atteint près de 7% en mars 2006 contre 4,5 un an plus tôt.
Pour l’année 2006, l’étude indique que les besoins de recrutement sont de l’ordre de 40 000 postes dont 8 à 10 000 créations. Toutefois, l’ensemble de ces offres ne se convertit pas en emplois, faute de trouver les profils requis. Ces chiffres confortent malheureusement l’analyse de très nombreux professionnels qui se désolent de la désaffection des étudiants français pour les filières scientifiques.
Cette pénurie de personnel contribue également au développement de l’Offshore. Représentant actuellement 2% de l’activité informatique, la part pourrait atteindre 4 à 6% d’ici 2008. Ces derniers chiffres sont assez révélateurs de « la psychose » généralisée qui a envahi une partie de notre population. A écouter les commentateurs frileux, nos informaticiens seraient aussi mal lotis que nos plombiers. Quand ces derniers seraient écrasés par des hordes de polonais, nos informaticiens seraient submergés par les indiens. Certes 6% n’est pas zéro (une invention indienne) mais ce n’est pas non plus le cataclysme. Qui plus est, il suffirait sans doute de redynamiser la filière informatique pour retrouver le même niveau d’activité et d’emplois, la croissance du secteur des TIC demeurant forte et durable.


    Stéphane Larcher
Chronique Futur
Réduire
Le futur de la radio et de la télé !

Le lancement de Yahoo Music vers le début de l’année est passé relativement inaperçu, en particulier en France, du fait d’une programmation avant tout américaine. Pourtant, c’est une véritable révolution qui est ainsi apparue au niveau de la radio, quelque chose qui permet d’envisager ce que va devenir aussi bien ce média que la télévision d’ici quelques années…

idhugo.gifYahoo Music vous permet de définir une radio personnalisée selon un modèle tellement séduisant que, très vite, il paraît difficile de s’en passer. Jugez-en plutôt : en premier lieu, vous indiquez une liste d’artistes, de chansons ou d’albums que vous aimez bien écouter en indiquant une note progressive allant de une à quatre étoiles. Vous pouvez aussi faire connaître à ce même site les artistes ou morceaux que vous ne voulez jamais entendre. Une fois que Yahoo Music a eu de telles informations, il commence alors à vous construire un programme adapté à vos goûts. Quelle que soit la chanson qu’il diffuse, vous pouvez apporter une nouvelle note. Le site puise bien évidemment dans la liste que vous lui avez donnée, mais il ne s’arrête pas là. Tout comme le font des sites tels que Amazon ou la Fnac, Yahoo s’inspire aussi des chansons appréciées par ceux qui ont les mêmes goûts que vous, et vous suggère divers artistes ou musiques que vous devriez être susceptibles d’aimer. Et la surprise est alors au rendez-vous : personnellement, en quelques jours d’utilisation, Yahoo Music m’a fait découvrir plusieurs albums immédiatement adorés, dont j’ignorais l’existence et que je n’aurais probablement jamais découverts ! Autant dire que nous avons là un modèle de radio dépassant tout ce qui a pu exister en la matière.
Si le choix proposé à un moment donné ne vous convient pas, rien n’empêche de passer au morceau suivant et surtout d’informer Yahoo Music de ne plus jamais programmer cela ! Puisque vous apportez constamment de nouvelles appréciations, il vous construit ainsi un programme qui de jour en jour, vous correspond un peu plus.
Tout le monde peut gagner au développement d’un tel modèle. En premier lieu, un grand nombre d’artistes, plutôt marginaux ou d’albums relativement peu connus, risquent de se voir programmer auprès d’une audience à même de les apprécier. Il peut s’ensuivre des ventes pour lesdits artistes – le système est même conçu pour favoriser les achats d’impulsion. Deuxièmement, des publicités ciblées pourraient être introduites de manière visuelle – sans marquer une interruption de la musique comme c’est le cas sur les radios traditionnelles – en tenant compte là encore des goûts personnels, et de telles annonces seraient ainsi mieux vécues que les promotions de masse. Il faut savoir qu’une étude a montré que ceux qui aiment la même musique ont souvent aussi les mêmes affinités dans d’autres domaines : vêtements, nourriture, etc.
Une fois transposé sur un système de réception sans fil, un programme à la Yahoo Music préfigure la radio de demain : la possibilité d’écouter à tout moment une programmation musicale (ou autre) extrêmement proche de ce que l’on aime, ce qui peut d’ailleurs inclure un espace de libre découverte de styles méconnus.
Il est facile d’imaginer l’extrapolation d’un pareil système sur la télévision. Imaginez seulement qu’il vous soit possible de disposer sur chacune des chaînes auxquelles vous êtes abonnés d’un programme totalement personnalisé : documentaires sur l’Asie, débats sur l’environnement, films correspondant à une certaine époque ou style, une programmation qui de jour en jour correspondrait de plus en plus à votre profil personnel… De nombreuses émissions touchant un public non répertorié dans les sondages de l’Audimat pourraient trouver enfin une audience.
Pour mémoire, le système mis en place par Yahoo a eu un précurseur dès l’an 2000 : un site appelé Sonicnet, qui n’a hélas pas survécu à l’éclatement de la bulle Internet. Avec le retour en grâce des applications sur le Web, de telles expériences sont en mesure d’aboutir et elles devraient modifier à très grande échelle le rapport de l’individu aux mondes du spectacle et de l’information.
p. 1
Réduire
Préparez-vous aux déploiements de Windows Vista et Office 2007
Par Loïc Duval - copyright l'Informaticien, tous droits réservés


OFFICE_VISTA.jpgLa technologie SideShow équipera une nouvelle génération de portables.
L’an prochain, les entreprises – même les plus petites – devront affronter l’un des déploiements les plus lourds de ces dernières années en adoptant les nouveaux Windows et Office. Si, techniquement, Microsoft a tout fait pour simplifier les opérations, cette double migration représente un challenge humain et organisationnel qu’il vaut mieux appréhender et anticiper dès maintenant.


Vista et Office arriveront en janvier 2007 dans les magasins, mais dès novembre 2006 dans les programmes entreprises de Microsoft. À chaque mise à jour des applications Microsoft se pose l’inévitable question de la migration. Une question d’autant plus complexe que Microsoft a synchronisé la sortie de ces deux « vaches à lait ». Évidemment, toutes les entreprises ne sont pas contraintes de migrer, et toutes ne sont pas obligées d’envisager la migration conjointe de Windows et d’Office. Il s’agit là de deux migrations lourdes aux multiples répercussions sur le budget de l’entreprise, sur son organisation, sur l’évolution technologique de son parc de PC et sur son infrastructure informatique ; et plus que pour n’importe quelle autre migration Office/Windows jusqu’ici réalisée, des répercussions sur la perception humaine des changements qui en découlent et donc nécessairement la gestion des réticences d’une partie du personnel.
Cette multiplicité des challenges peut conduire les entreprises à ne pas opter pour cette double migration et en privilégier une par rapport à l’autre, en fonction de ses objectifs prioritaires : le renforcement de la sécurité ou l’évolution de sa gestion de l’information. Car le déploiement d’Office ou de Vista découle de nécessités différentes, mais qui peuvent se montrer complémentaires.


Pourquoi migrer ?

Rappelons rapidement les points qui peuvent motiver une migration vers Vista ou Office. D’une manière générale, s’il fallait résumer en 4 points les challenges de toute entreprise – que ce soit une TPE ou une entreprise internationale – face à son système d’information, on retiendrait à coup sûr :

• l’amélioration de la sécurité dans un univers où la cybercriminalité a désormais atteint ses objectifs d’engendrer plus d’un million de dollars par jour, soit autant que la drogue ;
• la diminution des coûts opérationnels. C’est une invariable constante qui mène tout un chacun à économiser le moindre centime et parfois se jeter dans l’Open Source à l’aveuglette, sans réfléchir aux réels bénéfices et inconvénients à long terme, parfois au détriment des principes de consolidation, de virtualisation et de rationalisation ;
• l’amélioration du taux d’utilisation, autrement dit, améliorer la productivité de chacun et l’efficacité du groupe à travers une utilisation plus systématique, plus collaborative et plus obligatoire du SI ;
• l’amélioration de la réactivité de l’entreprise sur ses marchés, face à sa concurrence et à ses partenaires.

À bien y regarder, les deux premiers points conduisent à l’adoption de Vista, et les deux derniers à celle d’Office 2007. En matière de sécurité, Windows Vista constitue une avancée notable sur Windows XP. Le logiciel intègre de nouvelles défenses (Windows Defender, pare-feu bidirectionnel, IE7 en mode protégé qui virtualise toutes les formes d’infiltration souhaitées comme indésirables), impose un fonctionnement utilisateur sans privilège, permet (en association avec Longhorn Server) une mise en quarantaine des PC nomades avant leur connexion réelle au réseau de l’entreprise (le temps de vérifier l’état de la machine et de ses protections).
En matière d’administration et de maintenance, l’adoption de Windows Vista contribue à diminuer les coûts généraux de fonctionnement. Son nouveau modèle de développement WinFX ouvre la voie à une nouvelle génération d’applications Windows. Et la présence de Virtual PC Express permet d’envisager la migration de postes anciens, jusqu’ici maintenus tels quels pour des questions de compatibilité.
En matière de productivité personnelle, d’efficacité de groupe comme de réactivité de l’entreprise, le nouveau Microsoft Office System 2007 invite les entreprises à imaginer de nouveaux scénarios et fournit toutes les briques fondamentales pour les réaliser. En ce sens, le nouvel Office est bel et bien révolutionnaire, puisque son adoption a potentiellement un impact organisationnel majeur sur le fonctionnement de l’entreprise et la gestion de son savoir.


Office & Vista : un duo inséparable ?
C’était probablement « marketinguement » parlant inévitable… Office 2007 et Vista offrent un niveau d’intégration très fort que l’on ne retrouve pas en faisant tourner Office 2007 sur Windows 2000 ou XP. Ainsi, Windows Vista sait interpréter le contenu des documents Office 2007 pour dessiner les icônes (technologie Live Icons de Vista), et sait également pleinement exploiter le potentiel méta-données du nouveau format. De même, les panneaux de prévisualisation de l’explorateur de Vista sont capables d’afficher les documents Office. Enfin, Office 2007 prend en compte certaines spécificités de Vista, comme le look Aéro Glass ou encore la gestion des afficheurs auxiliaires, que l’on appelle la technologie SideShow. Elle équipera notamment la prochaine génération de notebooks et permet d’accéder à ses e-mails, rendez-vous, etc., sans ouvrir son notebook.




DÉPLOYER VISTA

Les techniques de déploiement des systèmes Windows ont considérablement évolué ces dernières années, notamment avec l’apparition des concepts d’image disque, comme si on dupliquait une machine master. Chez Microsoft, les technologies de déploiement d’images et d’administration, à partir de Windows Server et d’outils comme SMS, ont contribué à diminuer les coûts liés au déploiement d’un nouveau système.
Avec Windows Vista, ces techniques acquièrent une nouvelle maturité et les contraintes existantes (propres à ce type de déploiement) ont été gommées. La nouvelle technologie d’image système/disque dénommée WIM (Windows Imaging technology) possède un format agnostique à la structure des disques (c’est une image basée sur des fichiers et non des secteurs disque) autant qu’au hardware des machines. Ce format présente l’avantage de pouvoir stocker plusieurs images disque dans un seul fichier avec un taux de compression d’autant plus significatif que des fichiers présents dans plusieurs images ne sont réellement encodés qu’une fois (une seule instance physique sur le fichier image). Tout ceci permet aux entreprises de déployer une image unique sur des PC, même très différents (génération différente, chipsets différents, etc.) et à des utilisateurs n’importe où dans le monde même s’ils utilisent des langages très différents.
Ce format s’avère en outre bien plus pratique que les précédentes formes d’image disque, puisqu’il est dynamiquement possible de l’éditer afin d’y ajouter des fichiers, y insérer un Service Pack ou patch, d’ajouter des drivers ou même de retirer tel ou tel élément du système. Il faut savoir en effet que Windows Vista dérive en réalité du code de Windows XP embedded, version totalement modulaire car « componentisée » de Windows XP. Dès lors, le système ressemble aujourd’hui davantage à un assemblage de Légos, dont on peut, pour des raisons stratégiques, techniques ou de sécurité, choisir de ne pas déployer une brique. Ainsi, la durée des images dans le temps est bien plus grande. Il n’est pas nécessaire de recréer intégralement une image à chaque modification de la machine « master ».
La technologie offre également un dernier avantage qui peut complètement transfigurer votre approche du déploiement du système : puisque l’image ne s’appuie plus sur une copie des secteurs du disque, cette image s’avère « non destructrice » ! Autrement dit, il devient possible de faire migrer le PC tout en conservant les données de l’utilisateur, ses paramètres système et applicatifs. Le nouveau mécanisme d’installation de Vista prend d’ailleurs en compte cette capacité de préservation et utilise un mécanisme d’installation qui peut être réversible en cas d’anomalie durant la migration. Il n’est donc plus nécessaire de penser systématiquement à un déploiement par écrasement de la partition système.
Enfin, pour tous ceux qui sont habitués aux techniques d’images et préparation système (par SysPrep) sous Windows XP, il faut également souligner que Vista utilise désormais, pour tous ses fichiers d’installation automatisée (unattend.txt, winbom.ini et sysprep.inf), un format XML bien plus facilement compréhensible et éditable.
Tous ces éléments contribuent à réduire considérablement les coûts de déploiement de Vista et des mises à jour des postes.
p. 2
Réduire
Les problèmes de génération matérielle

Évidemment, avant de déployer le nouveau Windows sur les PC, il faudra s’assurer de la compatibilité du matériel. En matière de puissance, les besoins minimum sont normalement couverts par tout PC de moins de 3 ans : 512 Mo de Ram, disque dur de 16 Go et processeur de 1 GHz ou plus. En pratique, toutefois, on évitera de déployer Vista sur des ordinateurs de moins de 1 Go de Ram, et on optera systématiquement pour 2 Go de Ram lors de l’acquisition de nouvelles machines.
Un autre point doit être étudié avec attention : celui de la carte graphique. Pour bénéficier de la nouvelle interface graphique Aéro (avec son moteur de composition, ses effets visuels, etc.), la carte graphique doit être équipé d’un pilote WDDM nouvelle génération. Intel, ATI, Nvidia et VIA ont publié sur leurs sites la liste des chipsets disposant d’un pilote à ce format. Mais, d’une manière générale, seuls les chipsets récents disposeront de tels pilotes. En outre, la carte vidéo devra être équipée d’un minimum de 64 Mo de mémoire soit dédiée, soit partagée (mais avec dans ce cas des contraintes de débit mémoire imposant de l’AGP 8X ou du PCI Express avec de la mémoire DDR2 en double canal). Pour clore ce sujet, signalons que si vous avez à acheter dès aujourd’hui des PC, la présence du sticker « Windows Vista Capable » ne présage en rien de la compatibilité de ce PC avec Aéro. Donc, méfiance.

USMT.jpgLe nouvel outil User State Migration Tool USMT 3.0 est idéal pour récupérer les informations et paramétrages d’une machine que l’on souhaite reformater avant d’installer Vista.

Enfin, la problématique du 64 bits doit être évoquée. La plupart des processeurs équipant les PC en vente supportent le fonctionnement en 64 bits, mode considéré comme le mieux adapté à Windows Vista qui a été conçu pour cette génération 64 bits. Si l’adoption du 64 bits pose relativement peu de problèmes de compatibilité logicielle, il soulève en revanche de nombreuses questions en matière de pilotes de périphériques. Il faut en effet nécessairement adopter des drivers 64 bits. Or, ces derniers sont au final relativement rares. C’est notamment au niveau des appareils réseau et des imprimantes que le manque de pilotes 64 bits se fera le plus sentir.


Les problèmes de compatibilité

Les problèmes de compatibilité logicielle sont toujours cruciaux et ceux de Vista sont assez similaires à ceux qui avaient précédé l’arrivée de Windows XP. On en retiendra particulièrement deux :

• les applications Intranet basées sur Internet Explorer qui peuvent poser de nombreux problèmes en raison des sécurités accrues d’IE7 et de son moteur interne notablement différent ;
• les applications Windows programmées de façon incompatibles avec Vista.
On retrouve sous Vista les outils de compatibilité déjà créés pour XP – et notamment l’Application Compatibility Toolkit qui passe en version 5 avec Vista. Ils apportent des solutions à certaines des incompatibilités sur les applications Windows notamment celles écrites pour Windows 9x. Mais la solution qui paraîtra probablement la plus élégante et la plus immédiate, c’est l’usage de Virtual PC Express Edition.
Vista-Intro2.jpg
Virtual PC est le logiciel de virtualisation de Microsoft qui permet de faire tourner les anciennes versions de Windows et leurs applications dans un PC virtuel « émulé » dans une fenêtre Windows. La version Express incorporée dans les éditions Enterprise et Ultimate de Vista, permet d’exécuter non seulement Windows 95 à Me, et Windows NT4 à XP, mais également MS-DOS et OS/2, ce qui constitue un élément essentiel en faveur d’une migration Vista de certains postes très anciens, maintenus actifs pour des raisons purement ancestrales d’applications tournant sur ces systèmes.
Virtual PC Express n’autorise l’exécution que d’une seule machine virtuelle, ce qui est suffisant pour résoudre le contexte de compatibilité. Signalons par la même occasion que la « Software Assurance v3.0 » autorise l’exécution d’un système inférieur ou égal en machine virtuelle sans adjonction de coûts.


Les problèmes de formation

Windows Vista présente de multiples avancées ergonomiques qui nécessitent une adaptation de l’utilisateur. La présence de fonctions de recherches rapides, la nouvelle organisation du menu Démarrer et de l’Explorateur Windows avec ses dossiers virtuels, le regroupement des fonctionnalités dans des centres de contrôle, ont de quoi dérouter au départ les utilisateurs. Certes, il est possible de ne pas opter pour l’interface Aéro et de forcer l’usage d’une interface Windows plus classique, mais c’est au détriment des avancées ergonomiques du système. Il faudra donc aux utilisateurs un temps d’adaptation et probablement une formation rapide, même si Microsoft ne manquera pas d’inclure un guide de prise en main vidéo/interactif.



Un sous-système Unix dans Windows ?
SUA (Subsystem for Unix-based Applications) est un composant Windows qui fournit des services de base pour les applications développées pour Unix. C’est un nouveau sous-système POSIX qui est similaire au sous-système Interix jusqu’ici fourni avec Windows Services For Unix 3.5. SUA facilite l’intégration entre les environnements Windows et Unix/Linux, aide à la migration des applications Unix sous Windows, améliore l’interopérabilité entre les deux univers.





DÉPLOYER OFFICE

Le déploiement d’Office 2007 est d’abord motivé par une volonté organisationnelle. Il s’agit bien ici de repenser la bureautique de l’entreprise et sa gestion de l’information, en s’intéressant non seulement au flux (une façon classique d’appréhender le problème) mais bien plus encore à l’élaboration de scénarios que l’on souhaite mettre en place pour atteindre les objectifs recherchés d’efficacité, de contrôle et de valorisation de l’information.
Office 2007 est avant tout un encouragement à repenser la gestion de l’information, du savoir et du contenu. Moins l’entreprise voit et envisage le bénéfice de cette approche, plus elle se rapproche d’Open Office – certains diraient de la machine à écrire. Plus, au contraire, elle l’envisage et la revendique, plus elle se rapproche d’Office 2007. C’est bien là toute la stratégie de Microsoft qui n’a jamais autant investi dans le développement d’une version d’Office que pour cette édition 2007. Ambitieux, Office 2007 l’est incontestablement, peut-être même davantage que Vista (ce qui n’est pas peu dire) pour autant que les produits puissent ainsi être comparés.
Cette problématique nécessite un véritable investissement humain et une volonté de l’entreprise d’aller de l’avant. Il n’est pas incongru d’envisager la création de nouveaux postes dans le service informatique des PME de taille importante et des grandes entreprises : celui d’administrateur Office. Une personne (voire plusieurs) ayant la connaissance du potentiel de la plate-forme Office System, et une vision organisationnelle0 à même de formaliser les scénarios qui s’appliqueront à l’entreprise. Les SSII l’ont d’ailleurs bien compris. Les postes organisationnels (apparus depuis 3 ans dans les entreprises américaines) sont désormais proposés aux entreprises, bien qu’il paraisse pour le coup plus logique de développer cette compétence en interne.


Un problème
inattendu
La résistance humaine au changement est un phénomène inévitable. Et, on le sait, particulièrement présent et crucial dans les entreprises françaises. Or, la nouvelle interface de Word et des autres composantes risque de perturber certains utilisateurs. Il est peu probable que la secrétaire apprécie de ne plus retrouver exactement au même endroit des fonctions aussi basiques que l’ouverture de fichier ou l’impression. Aussi fou et incroyable que cela paraisse, Microsoft a pourtant bel et bien pris le parti de modifier intégralement l’ergonomie de sa suite bureautique. Un mouvement hautement stratégique fruit de sondages et études réalisés par Microsoft auprès de ses utilisateurs.
Les réponses des utilisateurs à la question « Quelles fonctions aimeriez-vous voir dans le produit ? » sont édifiantes. Près de 90 % des suggestions sont déjà présentes dans le produit. Microsoft en a déduit que ces fonctions devaient être à la fois trop dissimulées dans les cascades de menus et pas assez parlantes. Il en découle une nouvelle interface qui expose davantage de fonctionnalités, n’expose que celles correspondant au contexte et surtout présente bien davantage des résultats à obtenir que des fonctions.
Conscient de la nécessité de former les utilisateurs à cette nouvelle interface, Microsoft propose des formations vidéo gratuites très bien réalisées. Mais une telle révolution ergonomique peut entraîner un phénomène de rejet qu’il faudra contrôler et prévenir avant de « balancer » le nouvel Office sur tous les postes. Il faudra notamment savoir valoriser l’utilisateur et vendre cette nouvelle interface. Reste qu’en pratique, la nouvelle interface s’avère très rapide à prendre en main (notamment parce que Microsoft a conservé les mêmes icônes) et engendre très rapidement des gains notables sur la qualité des documents générés et sur la productivité de chacun.
p. 3
Réduire
Du client au serveur

Déployer Office 12, c’est d’une part déployer un applicatif client, mais également faire migrer des applications serveurs. Côté client, les choses ont toujours été relativement simples. Il suffit en fait d’utiliser un mode spécial du Setup pour déployer depuis un dossier partagé. Le Setup de Office 2007 a encore été amélioré. Comme pour la version 2003, on retiendra que l’installateur crée un cache sur le disque de l’utilisateur afin d’éviter les messages du type « Insérer le CD d’installation » dès qu’on modifie les paramètres de base ou que l’on déploie une mise à jour.
Côté serveur, les choses sont éminemment plus complexes et dépendent des choix de l’entreprise et des scénarios préalablement retenus. Mais deux points méritent qu’on y accorde une attention toute particulière :

• les entreprises ayant déjà opté pour Sharepoint Services et Sharepoint Server dans leur édition 2003 devront faire migrer ces serveurs vers les éditions 2007. Microsoft a prévu des mécanismes et des outils, comme le PreUpgrade Scan Tools, qui prépare votre serveur Sharepoint Portal 2003 à la migration, afin de la rendre le moins risquée et le moins complexe possible. Mais l’opération demande de suivre scrupuleusement le guide fourni par Microsoft ;
• qui dit nouvel Office, dit nouvel Outlook et donc nouvel Exchange. La sortie d’Office 12 sera coordonnée avec celle d’Exchange 12 (qui rappelons-le ne sera disponible qu’en version 64 bits). Pour bénéficier des dernières nouveautés d’Outlook, comme l’optimisation des agendas d’un Team pour trouver les meilleures plages pour organiser une réunion, ne sont accessibles qu’en passant par Exchange 12. Or, la migration des serveurs Exchange 12 est toujours une opération à planifier très en amont. Pour les entreprises utilisant les dossiers publics d’Exchange, l’élaboration des scénarios devra déterminer s’il est judicieux ou non de les faire migrer vers Sharepoint Team Services.


Contexte international simplifié
Office 2007 et Windows Vista sont désormais « multilingues » par défaut. Les binaires sont strictement identiques entre les versions localisées et il suffit d’adjoindre un fichier de ressources en telle ou telle langue pour obtenir une version localisée. On peut donc ajouter une nouvelle langue à tout moment et passer simplement d’une langue à l’autre. Promise depuis longtemps par Microsoft, mais concrètement réalisée avec ces nouvelles éditions, cette universalité des binaires simplifie grandement non seulement le déploiement (y compris sous Vista où une même image système peut désormais être utilisée pour tous les pays), mais également la diffusion et l’installation des correctifs et des services pack.




Le problème des formats de fichiers

Office 12 utilise un nouveau format de fichier XML très différent du format de la suite 2003 et surtout activé par défaut. Promu au rang de « standard ECMA » sous le nom OpenXML, ce format de fichier est un atout majeur pour les entreprises. Ouvert, il permet enfin à n’importe quelle application de triturer les fichiers Office de façon simple, officielle, et non destructrice. En outre, ce format XML ouvert offre des perspectives bien plus alléchantes lorsqu’il est associé aux couches de gestion de contenu désormais intégrées dans Sharepoint Services.
Mais, évidemment, ce format soulève ses propres problématiques et interrogations, surtout lorsqu’il s’agit de maintenir un parc hétérogène de versions d’Office pendant un temps. Microsoft n’a pas éludé le problème et propose deux approches :

• la première, très classique, consiste à forcer par paramétrage les applications 2007 à utiliser par défaut les bons vieux formats « compatibles », autrement dit les doc, xls, ppt, etc. ;
• la seconde, qui nous semble bien plus judicieuse et recommandable, consiste à enrichir les anciennes versions d’Office du support XML. Microsoft propose en effet une mise à jour des versions 2000, XP et 2003 d’Office afin de leur intégrer le support de OpenXML. Dès lors, anciennes et nouvelles versions d’Office peuvent cohabiter dans l’entreprise pendant un temps.

BDD1.jpg

Des outils pour migrer plus simplement

Pour vous aider à anticiper les difficultés, Microsoft propose aux entreprises un utilitaire gratuit dénommé Office 2007 Migration Planning Manager. Cet utilitaire compact et indépendant (c’est un .exe directement exécutable sans installation et qui est utilisable en ligne de commande et donc intégrable à des scripts) vise à réduire le taux d’incertitude sur la compatibilité des documents existants. Cet outil d’analyse et de reporting fournit toutes sortes d’informations concernant de potentiels risques d’incompatibilité de vos documents avant la migration.
Cet outil, qui peut être lancé localement ou à distance, agrège les informations trouvées dans une base de données. Il attribue des notes de sévérité aux problèmes détectés, ce qui permet de classer les urgences et de prendre les bonnes décisions en amont. Les incompatibilités sont de plusieurs ordres : la plus grave est la perte de l’historique des versions lors de la conversion. Les autres sont soit des changements dans la mise en page ou l’affichage, soit des changements de calculs liés à des modifications dans les formules.
Autre outil qui est fourni par Microsoft : l’Office File Conversion Tool. Cet outil permet de convertir par lot les documents DOC/XLS/PPT existants en fichier Open XML. Il sait récupérer les résultats des analyses du Planning Manager. L’administrateur peut ainsi définir des paramètres de conversion et des contraintes. Lorsqu’un document ne peut y adhérer, le processus de conversion s’interrompt. Cet outil de conversion permet en outre de « débloquer » des données enfouies dans les anciens formats, afin de les réutiliser en meta-tags sur le nouveau format et ainsi faciliter notamment les recherches.
Autre outil essentiel, le Microsoft Office Customization Tool permet de configurer tous les paramètres internes de la suite Office, afin d’avoir des fonctionnalités identiques sur chaque poste et personnalisées pour les besoins de l’entreprise. Cela va de la simple configuration de base du produit (paramètres de sécurité, paramètres des répertoires par défaut, etc.) à l’adjonction de modèles et de macros ou « add-ins » dans la « Ribbon Bar », ou la personnalisation des fonctions placées dans la barre d’accès rapide – qui regroupe les fonctions systématiquement employées par tout le monde.
Évidemment, la migration vers Vista et Office est avant tout une volonté d’entreprise. Celle vers Vista sera motivée par des critères de modernisation du parc et de sécurité. Celle vers Office 2007 par des critères organisationnels. Si la migration de Vista peut s’accomplir au fil de l’eau, au fur et à mesure du renouvellement du parc de PC, celle d’Office 2007 s’avère, elle, davantage stratégique et d’un impact plus global. Quoiqu’il en soit, et contrairement aux éditions précédentes, les challenges ne sont pas ici techniques mais bel et bien organisationnels et humains. Mais ce qui compte au final, c’est que l’entreprise y gagne véritablement en efficacité, en ouverture  sans pour autant alourdir davantage les coûts de fonctionnement de son informatique.


Business Desktop Deployment
BDD (Business Desktop Deployment) n’est pas un outil nouveau, bien qu’il soit mis à jour en version 3.0 pour affronter le déploiement de Vista et d’Office 2007. Cet outil appartient à une famille d’offres de solutions de Microsoft, destinée à fournir à la fois des outils et des composants réutilisables, mais également des processus pour faciliter les déploiements de Windows et d’Office. Cette solution permet de gérer la création des images disque, de réaliser l’inventaire logiciel et matériel du parc, de gérer les problèmes de compatibilité, de créer des packages et des scripts de déploiement d’applications, d’analyser le réseau, etc. Il fournit essentiellement des conseils, des guides et de la documentation pour réussir rapidement et sans surcoût les migrations de postes. BDD décrit comment utiliser les nouveaux outils de Microsoft et créer une base de toutes les applications sur les ordinateurs inventoriés. Les rapports générés permettent de définir les priorités et de souligner les difficultés à résoudre.


p. 1
Réduire
Le douzième homme numérique
Par Michel Chotard - copyright L'Informaticien, tous droits réservés

Qu’ils soient professionnels ou amateurs, les entraîneurs ont fait de l’informatique l’outil indispensable pour la préparation des équipes. Au-delà des entraînements, plusieurs applications permettent également d’analyser et décortiquer les matches pour faire progresser les joueurs et gagner des trophées.

AMISCO-Coverage.jpg
À la veille de la Coupe du monde, les équipes peaufinent leurs tactiques et finalisent l’étude de leurs adversaires. Durant cette saison, les entraîneurs, adjoints et autres observateurs ont parcouru les terrains, supervisé des joueurs, réalisé les séances d’entraînement… pour que tout soit fin prêt le jour J. Ce qui s’applique aux équipes nationales concerne également les divers championnats européens, mais aussi des niveaux inférieurs comme les clubs amateurs. Maintenant, quelles solutions le microcosme du football – et aussi du rugby – a-t-il à son service ? S’il y a 20 ans il fallait envoyer un observateur pour suivre un adversaire et noter toutes les informations sur papier, la révolution informatique est passée par là pour faciliter et améliorer le travail de chacun.
Plusieurs applications existent sur le marché depuis une dizaine d’années. Les sociétés ADF et ISI ont travaillé ensemble pour créer une suite de logiciels basée sur TechFoot. Développé sous WinDev, puis sous Access 2002, ce software a vocation à mettre en place un programme d’entraînement, à créer des exercices ou encore à quantifier les aptitudes physiques des joueurs. Pour compléter ce logiciel, les concepteurs ont ajouté TactFoot (développé sous Director), un outil permettant de simuler des actions de jeu. Pour valider les exercices et autres schémas tactiques, les responsables d’ADF et d’ISI ont collaboré avec Éric Monbaerts, actuel entraîneur du Toulouse FC. Une solution pour PDA (lire encadré) est aussi apparue et l’utilisation de la vidéo avec Match, une interface conçue sous Director, a été déclinée. Bien entendu, toutes ces applications sont totalement compatibles entre elles.


Convivial et intuitif

AMISCO-Mode-Animation.jpgAgréée par la Fédération française de football, cette suite de logiciels a fait ses preuves depuis la Coupe du monde 1998. Aimé Jacquet l’a utilisé et quelque 1 500 clubs professionnels – dont le Milan AC, Lyon et le PSG – et amateurs lui font aujourd’hui confiance. Raymond Domenech, l’actuel sélectionneur des Bleus, s’en sert toujours et il devait inaugurer début juin la version 4.0, à laquelle ses créateurs ont ajouté des améliorations, comme la visualisation des actions ou exercices en animation. Si le fonctionnement de TechFoot se gère en quelques clics, il n’en reste pas moins complexe. « Avec TechFoot, on rentre des données comme le nombre de joueurs, la durée de l’exercice, la durée de l’effort, le nombre de séries, etc. Cela donne accès à 300 exercices et plus de 500 dans la version 4. Nous avons même ajouté une partie de tests physiques et techniques permettant de faire des fiches sur les joueurs avec un suivi physiologique », explique Yannick Llense, le responsable d’ADF. Les exercices et les schémas tactiques sont une chose, mais aujourd’hui avec Match, les entraîneurs ont la possibilité d’obtenir des informations sur les joueurs, leurs mouvements, les duels et plus encore. Lors d’une rencontre, le match est entièrement numérisé en Mpeg2, soit un fichier de 5 Go environ. Les données sont transférées sur un PC. « Convivial et intuitif, Match permet au coach de visualiser des données collectives ou individuelles » , indique Yvan Kalfon, responsable d’ISI et développeur de Match.


Balayage du terrain

Une autre solution se base sur le système Amisco, mis au point par la société Sport Universal Process (Sup), et développé en C++. Si ADF et ISI vendent leurs logiciels, Sup se positionne comme un prestataire de services. Sup travaille avec des clubs comme Le Mans, Troyes mais aussi Chelsea ou Liverpool. La FFF est également un client puisqu’elle commande les analyses de matches joués au Stade de France. Le système Amisco tourne sur PC et regroupe une quinzaine de softwares dont AmiscoPro.
« Notre système couvre l’ensemble du terrain à travers huit capteurs qui gèrent chacun une parcelle du terrain. Certaines zones, comme la surface de réparation, le sont plus que d’autres afin d’avoir différents angles de vue », explique Antoine David, le responsable du développement de Sup. À travers le traitement d’images, Amisco détecte les joueurs, le ballon et l’arbitre, puis il faut fusionner toutes les informations. L’application Traj permet de tout compulser et de recomposer l’ensemble du match, avec par exemple les trajectoires des joueurs durant la partie. En revanche, pour établir les actions de jeu, il faut l’aide d’un opérateur physique dont le rôle est de coder les gestes, les duels ou les contacts. En associant toutes les données recueillies, l’entraîneur obtient une base de données qui sera décortiquée via d’autres applications, dont AmiscoViewer – conçu également en C++.
p. 2
Réduire
Ce logiciel propose deux modes aux entraîneurs. Une partie animation restitue les mouvements des joueurs vus d’en haut. Cela permet de récupérer une multitude d’informations, comme les mouvements de la défense, la distance entre les joueurs, etc. « Il y a aussi une phase de séquences indexées qui permet de retrouver toutes les actions du matches : les corners ou les coups francs », précise Antoine David. L’autre mode consiste à obtenir des statistiques pour étudier le match à travers des graphiques. C’est le gros pavé du système Amisco, car il donne à l’entraîneur la possibilité de connaître le nombre de sprints effectués ou la distance parcourue par un joueur, les tirs, le mouvement du jeu et bien d’autres éléments encore.


Une solution mobile sur Pocket PC - Jamais sans mon PDA
Complément de TechFoot et des logiciels d’ADF et d’ISI, Pocket Foot Trainer (conçu sous Visual Basic par ADF) s’adresse aux observateurs des rencontres. Développée à ses débuts sous Palm OS, cette application tourne sur Pocket PC depuis la version 4.0. Cet outil permet de saisir les actions clefs d’un match que ce soit pour l’ensemble de l’équipe (corners, buts, coups francs) ou pour un seul joueur (gain/perte de balle, fautes…). Il suffit ensuite de synchroniser le PDA avec un PC, où sont installés les softwares TechFoot et Match, pour obtenir la totalité des données de la rencontre. L’utilisation de la vidéo numérisée du match viendra compléter l’analyse en y associant les images.



Sup a également mis au point AmiscoOrganizer, un logiciel multimédia qui donne la possibilité de confronter différents matches et archives des séquences vidéo en Mpeg2. « Ce logiciel de base de données mesure ainsi les performances d’un club durant la saison via une mise à jour faite à chaque rencontre », ajoute Antoine David. En revanche, si le match se joue à l’extérieur ou si un club n’est pas équipé en capteurs, il existe un système complémentaire de codage basé sur la retransmission TV : VidéoPro. Cela implique que l’entraîneur ne pourra pas obtenir d’informations physiques sur les joueurs. Mais les données seront transférées sur AmiscoViewer, offrant néanmoins de nombreuses informations tactiques aux coachs. Bref, avec autant de moyens à leur disposition, ils n’ont plus d’excuses pour ne pas mener leurs équipes à la victoire.



Soccer-Trainer : Une base pour les entraînements
Mis au point par Yann Vanlerberghe (Atomize Software) avec son frère Cyril Vanlerberghe (ex-entraîneur d’équipes de jeunes aux États-Unis), Soccer-Trainer se focalise sur les exercices d’entraînement. Agréée par la FFF, cette application a été développée en Pure Basic 4, permettant de supporter l’Unicode UTF8 et les animations sous Flash. Utilisé par des amateurs et des clubs professionnels pour leur centre de formation (le FC Lorient, par exemple), ce soft décline quelque 350 exercices et permet aussi d’en éditer. « L’entraîneur sélectionne ses exercices (échauffement, tactique, match…) et la séance est ainsi créée. Le logiciel génère un PDF qui peut-être imprimé ou envoyé par mail », explique Yann Vanlerberghe. L’édition d’exercices est aussi simple puisque l’entraîneur peut importer des fichiers image (png ou Jpeg en 250 x 250 pixels). « En général, il s’agit d’exercices scannés à partir d’une feuille », ajoute-t-il. Une version 3.0 vient de sortir avec de nouvelles spécificités, comme l’augmentation du nombre de langues (italien, portugais, espagnol, néerlandais, chinois). Dans le futur, Atomize Software entend toucher d’autres sports et décliner une version pour Mac.

AMISCO-Process.jpg
p. 1
Réduire
PLAN DE SÉCURITÉ
Sensibiliser les utilisateurs aux vulnérabilités de l’informatique

La sécurité du système d’information n’est pas uniquement un projet technique et informatique. La multiplication des échecs le prouve. La sensibilisation permanente des utilisateurs favorise amplement la réussite de ce type de projet, et responsabilise chaque employé pour le bien-être de tous !


«Comment se fait-il qu’avec les sommes investies en sécurité, certains de nos utilisateurs agissent en dépit du bon sens et mettent involontairement à plat notre politique en la matière ? » Cette question légitime d’un directeur informatique, posée au cours d’une réunion interne d’une grande PME, illustre à elle seule l’objet pourtant trop souvent reporté de ce dossier.
Lors du développement d’une application métier ou de l’intégration d’un progiciel (ERP), les chefs de projet (informatiques et fonctionnels) ont désormais saisi l’intérêt de l’implication des utilisateurs finaux dès l’origine des projets. De plus, ils mettent en place une communication régulière spécifique tout le long du développement. Côté sécurité, il semble que nous soyons encore dans un contexte où la réponse technique semble suffire à certains décideurs. On en revient alors à la réflexion de notre DSI…


Éveiller l’utilisateur et le rendre actif

L_informaticien_sensib_7105.gifÉric Beaurepaire, directeur marketing Channel, chez Symantec
En matière de sécurité, de nombreux incidents, ou accidents, proviennent souvent de l’ignorance des utilisateurs. C’est pourquoi il devient impératif non seulement de sensibiliser tout employé, mais également de le rendre actif dans la politique de sécurité au service de tous. « La sensibilisation des utilisateurs est réellement devenue une préoccupation avec l’avènement de la mobilité et l’ouverture des réseaux. Alors, les entreprises ont pris conscience du besoin d’impliquer l’utilisateur dans les processus de sécurisation de l’information », explique Éric Beaurepaire, directeur marketing Channel, chez Symantec. « Il y a cinq ans, nous parlions déjà de l’élaboration d’une charte d’utilisation d’Internet incluant les employés et les responsables juridiques, accompagnée d’une sensibilisation du personnel. Il faut reconnaître que sur le terrain, ces actions devenaient un vœu pieux. Aujourd’hui, la majorité des grandes entreprises disposent de règles de sécurité qu’elles réajustent et améliorent sans cesse. »
Pour y parvenir, un minimum d’éducation s’impose, comme le rappelle Anne Dorange, directrice générale de SurfControl France, éditeur spécialisé dans les solutions de protection contre les menaces internet : « Les utilisateurs doivent comprendre qu’il en va à la fois de l’intérêt collectif et individuel. En effet, les sites de phishing récoltent également les numéros de carte bancaire et les coordonnées personnelles. C’est pourquoi il est indispensable de les sensibiliser aux risques d’exposition et d’utilisation d’Internet. Et même les utilisateurs les plus aguerris se laissent prendre au piège… »


Prendre conscience des risques

L_informaticien_sensib_7106.gifAnne Dorange,directrice de Surfcontrol France.
Une démarche de sécurité efficace doit répondre simultanément à des préoccupations de trois ordres : technologiques (la disponibilité des infrastructures), fonctionnelles (favoriser la productivité) et légale (conformité réglementaire). En effet, si les utilisateurs prennent trop de liberté avec les mesures de sécurité, ils risquent de pénaliser la productivité en surchargeant le réseau avec des échanges non professionnels (surf, peer2peer, messagerie, etc.) et en monopolisant le personnel technique (problème de mots de passe bloquant, fermeture d’accès suite à abus, etc.). Enfin, l’entreprise doit conserver à l’esprit qu’elle est légalement responsable et doit déployer les moyens nécessaires pour lutter contre les actions illégales de ses utilisateurs. De plus, en cas de litige, elle devra fournir la preuve des actions de salariés indélicats (fichiers de logs, traces à conserver…). De plus, elle peut enregistrer et utiliser des données nominatives, mais doit en informer la Cnil (Commission nationale informatique et libertés www.cnil.fr) et ses employés. « L’entreprise doit éviter de mettre ses utilisateurs dans une situation où ils peuvent se retrouver, même involontairement, sur un site dangereux (phishing, fraude, spyware…) ou légalement condamnable. Par exemple, lorsqu’un agent-espion est téléchargé de façon invisible sur les serveurs d’une entreprise, il peut rester en sommeil. Lorsqu’il sera réveillé, une action en mode réactif arrivera trop tard. Par ailleurs, si 200 utilisateurs sont connectés en ligne à une radio ou à la Bourse, dans quel état sera le réseau et la disponibilité pour des applications professionnelles ? Il ne s’agit pas de tout interdire, mais de réglementer en fixant des limites claires », souligne Anne Dorange.
Les entreprises souhaitent rarement témoigner en matière de sécurité. C’est pourquoi ce DSI d’une entreprise de 1 000 salariés dans le secteur de l’agro-alimentaire préfère conserver l’anonymat : « Premier acteur à sensibiliser, la direction générale doit absolument prendre conscience des risques. Sinon, il sera difficile d’obtenir une allocation budgétaire pour financer une action efficace auprès des employés. En général, il suffit d’exposer clairement les raisons de cette démarche et les risques inhérents pour obtenir un accord. »


Une politique de sécurité coordonnée

Être réactif ne peut répondre suffisamment au besoin de sécurisation des ressources informatiques. Une fois un vol de données constaté, il est déjà trop tard. Au moins, on est sensibilisé et on est prévenu pour la prochaine fois. Ainsi, l’alerte provient souvent d’un constat technique, comme la nécessité d’un antispam pour remédier à l’inondation de la messagerie, ou encore des codes malicieux introduits suite à des visites sur des sites apparemment anodins. Des mesures préventives valent mieux que de se croire invulnérable. « Les cybercriminels sont organisés et profitent des moindres failles pour nuire aux systèmes d’information. Il est essentiel d’anticiper. Car, en mode réactif, on traite de multiples problèmes en même temps et on ne prend pas le temps de réfléchir. Une seule alternative : anticiper ou être exposé », lance Anne Dorange, DG de SurfControl France !
Pour bâtir une politique de sécurité, tout le monde s’accorde à peu près sur les intervenants : la direction générale qui soutient et participe au projet, des représentants des salariés pour anticiper d’éventuels refus, les ressources humaines et le service juridique, parfois la direction financière et, bien entendu, la direction informatique pour reposer les contraintes et les possibilités techniques.
« Le soutien de la direction est d’autant plus indispensable que souvent, ces mesures de sensibilisation consistent également à accompagner et à faire accepter des changements dans les habitudes de travail. Chez nous, même les informaticiens n’étaient pas très motivés par ces modifications dans leurs tâches. Notre projet initial concernait l’unification du mot de passe : nous conservons des identifications multiples, mais en ne maintenant qu’un seul couple (identifiant/mot de passe) par utilisateur. La solution Identity Manager de BMC nous permet de centraliser la gestion de cette politique de sécurité d’accès. Par ailleurs, nous avons ajouté une contrainte incontournable : la modification du mot de passe chaque mois. Chez nous, la surveillance d’Internet et de son utilisation relève de la DSI. En cas de problème, nous communiquerons avec la DRH afin de l’aider à comprendre et à prendre des décisions », rapporte notre DSI masqué.


Les mesures efficaces en amont

« Nous proposons des prestations spécifiques afin de sensibiliser les employés à la sécurité de l’information. Ces programmes consistent à faire comprendre la nécessité de protéger l’information au sens large, y compris les données informatiques. Objectif : déterminer avec l’entreprise des règles de sécurité simples. Exemple : l’utilisateur est incité à définir un écran de veille avec mot de passe à la reprise pour limiter les risques d’utilisation de son poste à son insu », déclare Éric Beaurepaire. Cette responsabilisation de l’utilisateur semble une pratique efficace. Par ailleurs, la charte élaborée en commun permet de détailler précisément les comportements acceptables vis-à-vis d’Internet, de la messagerie électronique ou encore des mots de passe (éviter le syndrome du post-it, par exemple)…
« Avant le projet, nous avions édité un livret avec notre service de communication pour en expliquer les enjeux et les raisons à tout le personnel informatisé. Deuxième initiative, un film spécifique a été tourné et diffusé sur notre système de vidéo interne. Enfin, nous avons rédigé quelques articles dans notre journal interne. De plus, tout nouvel employé, passe une heure avec moi pendant laquelle je lui explique les modes de fonctionnement et les pratiques informatiques de l’entreprise, contenant évidemment un volet sécurité et confidentialité », relate notre DSI.
p. 2
Réduire
Prendre régulièrement la température

« Aujourd’hui, l’utilisateur a mûri. Mais il reste indispensable de déceler régulièrement les comportements et les tendances dans l’entreprise. Ainsi, si une règle de sécurité refuse la saisie du même mot de passe pendant six mois lors du renouvellement, un nombre de tentatives moins élevé de la part des utilisateurs prouvera leur maturité. On retrouvera ce type d’indicateurs par rapport à la définition d’un time-out pour le déclenchement de l’écran de veille, ou pour le blocage du PC lors de la sortie des locaux par exemple », conseille Éric Beaurepaire.
Pour le passage à l’action, l’entreprise dispose de plusieurs possibilités. Elle peut se contenter d’informer et d’outiller les postes de travail – ce qui semble aujourd’hui un minimum. En outre, elle peut déployer des règles et des techniques plus ou moins bloquantes avec ou sans alerte explicite à l’utilisateur.
Une fois la solution déployée, « un audit générant un reporting sur les sites Internet les plus visités (exemple : Kazaa, SNCF, Kelkoo…), sans chercher à viser nominativement les personnes ou les services, permet également de faire prendre conscience aux employés des débordements éventuels. La communication de ces éléments sera accompagnée d’explications et de rappels sur les ressources limitées de l’entreprise et le besoin pour tous de travailler dans un confort minimal. La même opération sera effectuée 15 jours après. Si aucune amélioration n’est constatée, l’entreprise peut passer à des restrictions empêchant l’accès à des sites, en dehors de tranches horaires prédéterminées. Cette démarche éducative sera expliquée pour sensibiliser sur les priorités des applications métier de l’entreprise », propose Anne Dorange. « Pour savoir sur quels aspects travailler concrètement, une combinaison entre l’audit de sécurité et le service informatique se révèle bénéfique. Ainsi, on favorisera une approche technologique pour limiter ou annihiler le broadcast vidéo, tandis qu’on optera pour une démarche ressources humaines à caractère juridique pour éradiquer la consommation de sites à caractère pornographique, ou plus simplement personnels. La solution n’est pas forcément le blocage inconditionnel dans tous les cas ; on peut aussi passer par une simple question à laquelle l’utilisateur doit répondre avant d’accéder au site, en lui rappelant au passage la charte interne et la législation en vigueur ». En général, ce type de démarche calme bien des élans.
Notre directeur informatique confirme qu’il faut entretenir la flamme et propose des actions ciblées : « De façon régulière, nous organisons des réunions spécifiques. Par exemple, nous avons expliqué aux cadres les modalités d’utilisation des clés USB, ou encore insisté sur la vigilance concernant les ordinateurs portables. »
« Nous proposons au client un intranet spécifique sur la sécurité avec formation en ligne, avec une trame qui peut être adaptée selon les souhaits de l’entreprise, et personnalisée d’après sa charte graphique. D’après notre expérience, nous constatons une utilisation de 4 à 6 heures sur une période de 6 mois à un an. L’intranet doit être clair et expliquer ce que l’on attend des utilisateurs et surtout pour quelles raisons. Une dimension ludique et incitative représente un atout indispensable à la réussite du projet : questionnaires à choix multiples, jeux, concours, etc. », détaille Éric Beaurepaire.


La sécurité à l’affiche

Sur le mur à la couleur incertaine et à la peinture défraîchie, on devine à peine une affiche devenue illisible et qui, avec le temps, a fini pas se fondre dans le décor. En s’approchant avec une attention extrême, le visiteur finit par déchiffrer : « Les dix recommandations sécuritaires de l’employé modèle. » Pourtant, cette opération résultant de tables rondes et de brainstormings (forcément constructifs), portait en elle une intention louable et indispensable. Néanmoins, le constat s’impose : si la préoccupation initiale de sensibilisation du personnel était légitime, la réponse par cette action semble s’être révélée inefficace.
Les décideurs en la matière doivent rester attentifs à la teneur et à la pertinence des messages, mais aussi à leur fréquence et leur impact. Rien ne sert de communiquer pour communiquer, juste pour se donner l’impression de faire quelque chose en matière de sécurité. « Mieux vaut privilégier peu de messages forts et essentiels que des listes à rallonges dans le genre “les dix règles de…”. Outre ce type d’affiches, d’autres moyens peuvent compléter le dispositif, comme divers gadgets de type publicitaire, à l’image des scratches humoristiques à coller sur le haut de l’écran portant un message ou une question liés à la sécurité. Certaines entreprises profitent de la connexion au réseau pour afficher ce type de message. »
Il est vrai que ce type d’initiatives permet de toucher directement l’utilisateur. À chaque responsable de faire preuve ensuite de créativité. Pourquoi ne pas associer ce message au saint du jour (« N’oubliez pas de souhaiter une bonne fête à… », ou encore un message plus personnalisé ? Afin d’éviter que ce type d’initiatives ne se fondent, elles aussi, dans le décor habituel, il peut être intéressant de varier régulièrement. Le site de Google, par exemple, change l’image de son logo en fonction de l’actualité. L’aviez-vous remarqué ? Aviez-vous remarqué qu’en cliquant sur l’image, vous obtenez plus d’information sur le sujet imagé ? Certains utilisateurs s’en rendent compte et d’autres non. D’où l’intérêt non seulement de communiquer sur l’initiative, mais aussi de multiplier les types d’initiatives de diffusion des messages.


Prévenir ne suffit pas !

Prévenir, alerter ou sensibiliser n’est que l’accompagnement à l’action et ne saurait suffire. Ces campagnes n’ont de raisons d’être que si elles accompagnent une réelle action technique et informatique. « La sensibilisation ne doit en aucun cas se substituer à la politique de sécurité. Ainsi, nous intervenons pour expliquer les règles essentielles (éviter les mots de passe sur les post-it, ou votre prénom comme identifiant, etc.), mais la sécurité du mot de passe et les diverses vérifications restent du ressort de l’équipe informatique. Il en va de même pour les recommandations sur les fichiers attachés aux e-mails. Dans ce cas, nous expliquons également ce qu’est le phishing et pourquoi l’utilisateur doit faire preuve de vigilance avant d’ouvrir des pièces jointes. Par exemple, attention aux messages provenant apparemment d’une grande institution ou d’un établissement bancaire et rédigés dans un français approximatif ou parsemés de fautes d’orthographe », précise Éric Beaurepaire !


Is Big Brother watching you ?

Outre les messages suivis d’un blocage, tendant à culpabiliser l’utilisateur, certaines entreprises vont jusqu’à utiliser les informations nominatives, ce qui est légalement possible en respectant les modalités (déclaration auprès de la Cnil et communication auprès des intéressés préalables).
Attention, toutefois, à maintenir une ambiance cordiale dans les services. Certes le contrôle peut largement s’expliquer et s’appliquer. « Sans contrôle ni maîtrise, on se retrouve rapidement avec un problème de ressources réseau : on donne 10 Mbits/s à chaque utilisateur, cela devient insuffisant, on passe à 100 Mbits/s, et il en faut rapidement 120… Comme un gaz parfait qui occupe tout l’espace disponible, aussi vaste soit-il », explique ainsi Anne Dorange. Toutefois, une paix sociale n’a pas de prix. C’est pourquoi la participation, dès l’origine du projet, des représentants du personnel et une communication régulière vers les employés représentent un garde-fou préventif indispensable.
« Chez nous, il n’est pas question de générer des rapports, sauf en cas d’abus évident – sites illégaux, bande passante surexploitée, etc. Le reporting, même anonyme ou par service, n’est pas une mesure favorisant la paix sociale, ni bénéfique pour l’image du DSI auprès de la DRH et des employés », conclut notre DSI, dont nous ne dévoilerons pas le nom ici…




La mairie de Villepinte conjugue communication et chasse aux abus

Le service informatique de la mairie de Villepinte, en région parisienne, prône une utilisation exclusivement professionnelle des ressources. Des rapports nominatifs sont possibles en cas d’abus, avec sanctions éventuelles. Un dispositif négocié avec le personnel et les juristes.

L_informaticien_sensib_7717.gifJamael Kadded, responsable du service informatique de la mairie de Villepinte.
En 2004, la mairie de Villepinte décide de formaliser une politique de contrôle d’utilisation du Web, via une charte d’utilisation professionnelle d’Internet. « Avec la solution choisie, nous avons mis en place des règles de filtrage et d’interdiction d’accès à des sites Web et de Webmail, venant compléter notre dispositif de sécurité : mots de passe, fonctions antivirus et antispam depuis une passerelle dédiée », relate Jamael Kadded, responsable du service informatique de la mairie de Villepinte. « Pour élaborer cette charte, une adoption par tous nous a semblé indispensable. Mais dès le départ de la réflexion, il convient d’inclure divers acteurs dans le groupe de travail, et de communiquer sur l’avancée des travaux auprès des agents. » Mieux vaut prévenir les risques de mécontentement dès le départ, plutôt que gérer une crise inévitable !


Juristes et représentants du personnel impliqués

Le service informatique commence donc à élaborer cette charte avec l’assistance du service juridique de la mairie et le comité technique paritaire qui regroupe les différents syndicats. Bien entendu, les résultats sont régulièrement soumis à l’approbation des délégués du personnel. Pour toutes les premières démarches, les juristes ont été fortement sollicités. En effet, la loi demande aux employeurs de prendre leurs responsabilités, sous peine de devenir coupables en cas d’utilisation frauduleuse ou moralement illégale d’Internet. « Ayant opté pour des rapports nominatifs concernant les contrôles d’accès, nous avons dû rédiger une déclaration auprès de la Cnil (Commission nationale informatique et libertés) obligatoire pour toute opération de surveillance nominative. Bien entendu, cette obligation est couplée avec une communication vers les employés mentionnant explicitement ce type de contrôle », souligne Jamael Kadded.


Une charte bien menée malgré les lenteurs de la Cnil

La mairie devra faire preuve de patience avec la Cnil, apparemment peu réactive.
« Dans nos relations avec la Cnil, il nous a fallu attendre très longtemps pour obtenir une réponse. De plus, nous avons dû les relancer pour obtenir une réponse formalisée selon les règles indispensables dans les relations avec un comité technique paritaire. Après six mois et de multiples relances par notre service juridique, nous avons enfin obtenu un accord écrit », reconnaît Jamael Kadded.
Alors, une charte d’utilisation d’Internet à la mairie est rédigée et validée. Après une communication interne spécifique, le document est remis à tous les chefs de service pour distribution d’un exemplaire à chaque agent. Et pour s’assurer que l’information est bien lue, le service informatique exige expressément que chacun lise et paraphe toutes les pages du document. « Puis, l’informatique est passée dans les services pour le déploiement. Certains agents ont alors exprimé des demandes spécifiques pour accéder à leur messagerie personnelle via Internet. Une excellente occasion pour nous de diffuser le discours explicatif auprès des demandeurs afin d’expliquer pourquoi et comment fonctionnent les solutions de contrôle d’utilisation d’Internet ! », affirme Jamael Kadded.
« Nous n’avons effectué aucune formation spécifique systématique. Cependant, après avoir enregistré plusieurs demandes en ce sens, nous sommes passés dans des bureaux concernés pour expliquer cette démarche. À cette occasion, plusieurs agents se regroupaient pour écouter ensemble les explications. »
Dans certains services de la mairie, des accès Internet sont proposés au public. Dans ces configurations, les accès sont fortement bridés et un animateur est disponible pour répondre aux éventuelles demandes des administrés et les autoriser éventuellement, et très ponctuellement, à utiliser une clé USB ou une disquette.


Informations nominatives et restrictions ciblées

Désormais, lorsqu’un nouvel agent arrive à la mairie, cette charte lui est systématiquement expliquée, ainsi que la politique de sécurité globale de la mairie. En effet, même s’il vient d’une autre collectivité, l’agent n’est peut-être pas sensibilisé à ces usages. Car chaque collectivité fonctionne à sa façon, et rien n’est réellement formalisé dans l’Administration. « Depuis la mise en place de ces solutions en 2004, tout responsable hiérarchique peut demander des rapports nominatifs, comme cela est clairement mentionné dans la charte. Alors, plusieurs mesures peuvent être prises : d’une limitation plus restrictive de l’accès à une interdiction totale. Ce qui est déjà arrivé plusieurs fois », reconnaît Jamael Kadded.
p. 1
Réduire
L’AVENIR DE JAVA
Deuxième partie : EJB 3.0 et Java EE 5.0
Par Noé Barat - copyright l'Informaticien, tous droits réservés

INGREYPX0727.jpgAprès avoir passé en revue dans le numéro d’avril (l’Informaticien n° 35) la future version du langage Java 6 et de la plate-forme standard Java SE 6, nous nous intéresserons à la future évolution des composants d’entreprise EJB 3.0 et de la plate-forme d’entreprise Java EE 5.


EJB 3.0

La spécification EJB (Enterprise JavaBean) est une des API de la plate-forme de développement J2EE (Java 2 Platform Enterprise Edition). Elle définit un cadre pour créer et déployer des composants logiciels hébergés par un serveur d’application et qui encapsulent la logique métier d’une application distribuée. Cette spécification a d’abord été définie par Sun (EJB 1.0 et 1.1). Elle a ensuite été prise en charge, selon le Java Community Process, par les JSR 19 (EJB 2.0), JSR 153 (EJB 2.1) et enfin JSR 220 (EJB 3.0). Apparus en 1998, les EJB se définissent comme des composants distribués transactionnels, briques élémentaires d’une architecture distribuée.


EJB, la force transactionnelle

Les composants EJB sont de deux types, ceux qui représentent des données (EJB Entité) et ceux qui offrent des services avec ou sans conservation d’état entre les appels (EJB Session). Depuis la norme 2.0, il existe un troisième type de composants, les EJB Message permettant de déclencher un processus serveur lors de la publication d’un message asynchrone.
L’aspect transactionnel a constitué dès le départ la grande force des EJB. Le modèle EJB permet d’assurer l’intégrité transactionnelle des données avec les fameuses propriétés ACID (Atomicité, Cohérence, Isolation, Durabilité), même pour les transactions distribuées avec des sources de données multiples.
Il définit deux modes de gestion des transactions. Dans la transaction gérée par le bean, le développeur utilise l’API JTA pour démarrer, valider ou invalider la transaction à l’intérieur du code du bean. Dans la transaction gérée par le conteneur, le développeur positionne un attribut transactionnel dans le descripteur de déploiement de son bean.
Bon nombre d’applications transactionnelles se sont construites sur les architectures de frameworks MVC (modèle, vue, contrôleur) et DAO d’accès aux données, tirant profit du potentiel transactionnel des EJB Session et Message-driven, tout en conservant un degré de complexité de développement acceptable (utilisation des interfaces locales, pas d’EJB Entité).


Relever le défi de la persistance

En revanche, la spécification EJB a fait fausse route avec son modèle de persistance avec les tristement célèbres EJB Entité. Ici encore, on trouve deux modèles de persistance. Dans la persistance gérée par le bean (Bean Managed Persistence, BMP), le développeur gère la persistance dans le code du bean avec l’API JDBC pour synchroniser l’état du bean avec la source de données, implémenter les méthodes de recherche, etc. Dans la persistance gérée par le conteneur (Container Managed Persistence, CMP), le code du bean ne contient que les propriétés du bean. Le mapping entre l’objet et son support de persistance est assuré par un schéma de persistance abstrait défini dans le fichier descripteur de déploiement. Les méthodes de recherches sont écrites à l’aide du langage EJB-QL et aucun code JDBC n’est nécessaire.
Dans la pratique, aucun des deux modes de persistance ne s’est révélé satisfaisant. La persistance gérée par le conteneur est restée un cas d’école, utilisée en session de formation, certaines fonctionnalités de base étant absentes (séquences pour les clés primaires…). La persistance gérée par le bean s’est révélée très lourde à maintenir et peu performante (appel des méthodes callback avant chaque appel de méthode métier, pas de gestion du lazy loading…). La norme EJB 3.0, censée adresser la problématique de la persistance, est donc très attendue par la communauté Java.


Dans l’enfer des EJB

Mais le challenge d’EJB 3.0 ne s’arrête pas à la persistance. Si l’on considère le chemin de croix que constitue le développement d’un simple EJB session stateless, un immense effort de simplification reste à faire. Ainsi, un tout bête EJB HelloWord, le plus simple que l’on puisse concevoir, nécessite pour le moins un jeu de deux interfaces, locales ou distantes, ou les deux selon le type d’accès, une classe d’implémentation du bean – avec le code métier de la méthode –, un descripteur de déploiement XML standard J2EE, un descripteur de déploiement propriétaire propre au serveur d’application (dans lequel on placera le nom JNDI de l’EJB), le tout devant être empaqueté au format standard de module EJB. C’est alors que l’on peut déployer l’EJB dans un conteneur afin de pouvoir le tester. Il faut ensuite développer le client de cet EJB qui doit pouvoir localiser l’EJB avant d’invoquer sa méthode métier (afficher « Hello World ! »). Replacé en contexte entreprise, on constate que le développement d’EJB devient vite un enfer…
Parmi les griefs que l’on porte souvent sur les EJB, on peut citer également :

• les composants qui veulent utiliser les avantages des services entreprise sont couplés à l’API EJB ;
• c’est tout ou rien : même si l’on veut n’utiliser qu’un service, il faut accepter tous ceux qui viennent avec EJB ;
• chaque EJB nécessite plusieurs artéfacts (interfaces, classes, descripteurs) ;
• les architectures EJB sont moins orientées objet, elles introduisent des « fake objects » (objets bidons) qui n’ont qu’un seul état et aucun comportement.


Des alternatives
Des alternatives Open Source

Face à cette lourdeur, les développeurs se sont tournés vers d’autres alternatives : la programmation orientée aspect, les conteneurs légers (Spring, Pico Container, HiveMind…), les outils de mapping objet/relationnel (Hibernate, JDO, iBatis), la plate-forme .NET, les langages de script (PHP, Ruby on Rails…).

Le principal challenge d’EJB 3.0 consiste donc à réduire la complexité de développement et de déploiement des EJB, en prenant en compte les évolutions apportées par les frameworks Open Source (Spring, Hibernate…).

L’architecture EJB est sans doute le seul composant de J2EE à avoir échoué dans sa mission d’améliorer la productivité des développeurs. Le JSR 220 s’est donc attelé à définir une spécification EJB 3.0. Les premiers travaux sur cette troisième version d’EJB ont débuté en 2003. EJB 3.0 a été officiellement annoncée lors du symposium TheServeSide en mai 2004, voilà bientôt deux ans. La proposition finale est attendue pour cette année, probablement lors de la conférence JavaOne qui se tiendra en mai 2006.

La réaction lors de l’annonce d’EJB 3.0 a été très mitigée dans la communauté Java. Les uns ont salué la simplification de la programmation et la standardisation d’un modèle de persistance. Pour les autres, qui utilisaient déjà Spring, Hibernate, TopLink, Enhydra… la spécification s’approprie les bonnes idées de ces API pour les standardiser sous son nom.
Les deux principales nouveautés de la spécification EJB 3.0 sont les annotations et un nouveau modèle de mapping objet/relationnel.
p. 2
Réduire
Simplifier avec les annotations

Java 5.0 (encore appelée J2SE 1.5, nom de code Tiger) a introduit un nouvel enrichissement au langage, les annotations. Ces métadonnées permettent une certaine forme de programmation déclarative. Elles offrent les mêmes possibilités que l’outil XDoclet avec l’avantage d’être intégrées au langage, elles sont à rapprocher des attributs sous .NET. Les annotations ne modifient pas directement la sémantique d’un programme, mais les outils (à la compilation ou à l’exécution) peuvent inspecter ces annotations pour générer des constructions additionnelles (comme un descripteur de déploiement) ou renforcer un comportement voulu au moment de l’exécution (comme la nature sans état d’un composant EJB). Les annotations simplifient considérablement l’écriture des programmes.
Pour réduire la complexité du développement, EJB 3.0 adopte le modèle de programmation POJO (Plain Old Java Object) en utilisant les annotations. Ainsi, pour l’exemple précédemment cité d’un EJB HelloWorld, la version EJB 3.0 se réduirait au développement de la classe suivante :

@Remote
@Stateless public class HelloWorldBean {
     public String sayHello(String s) {
          return(“Hello “ + s);
}
}


De la même manière, le positionnement des attributs transactionnels – jusque-là placés dans le descripteur de déploiement –, se fait désormais sous forme d’annotations :

@Remote
@Stateless public class HelloWorldBean {
 
@REQUIRED public String sayHello(String s) {
return(“Hello “ + s);
 
}
}


On constate que les annotations allègent considérablement l’écriture des EJB. Dans le monde EJB 3.0, tous les types de bean entreprise se réduisent à de simples POJO avec des annotations appropriées. Les annotations peuvent être utilisées pour définir l’interface métier du bean, les informations de mapping O/R, les références aux ressources, et tout ce qui peut être défini à travers des descripteurs de déploiement ou des interfaces en EJB 2.1. Les descripteurs de déploiement ne sont plus requis, l’interface home a disparu, et vous n’avez plus besoin d’implémenter une interface métier, le conteneur peut la générer à votre place.



Quand faut-il utiliser les EJB ?
EJB prend tout son intérêt pour construire les services d’une application principalement dans les cas suivants : quand les composants doivent être distribués (accessibles depuis d’autres applications), lors de transactions distribuées et lorsque l’on a besoin de déployer, configurer et administrer les services de manière centralisée (à travers les outils fournis par le serveur d’application). Ces besoins suffisent à justifier l’utilisation des EJB. A contrario, si ces besoins ne sont pas primordiaux, notamment l’aspect distribué, il n’y a aucune raison d’utiliser les EJB. Pour une application autonome qui tourne sur un serveur dédié et dont les services ne sont pas appelés de façon intensive par d’autres applications, l’utilisation des EJB, voire d’un serveur d’application J2EE ne se justifie pas. Un simple moteur de servlets tel que Tomcat faisant tourner des POJO peut faire l’affaire. En revanche, une telle application, une fois développée et déployée, peut atteindre ses limites lors d’une montée en charge importante. EJB 3.0 permettra une utilisation plus générique des EJB sans trop se poser de question au départ.




Une pincée d’AOP

Dans la spécification actuelle EJB, la localisation de ressources (EJB, DataSource) et l’invocation de méthodes métier sur un EJB restent complexes. Les développeurs Java se sont rabattus sur le framework Open Source Spring, un conteneur léger permettant de mettre en œuvre dans son application le principe d’inversion de contrôle (Inversion of Control, IoC) ou injection de dépendances. Lorsque l’application a besoin d’une ressource comme un EJB, celle-ci peut être déclarée par une annotation et elle sera « injectée » par le conteneur.

@EJB (name=”helloworld”)
public HelloWorld myHello;
@Resource(name=”customerDB”)
public DataSource myDataSource;

EJB 3.0 intègre désormais une approche Programmation Orientée Aspect (AOP). Le principe de l’AOP est de factoriser certaines problématiques communes et transversales à l’application (par exemple la gestion des traces, l’authentification…) et de fournir un mécanisme dans lequel ce sont les services métier qui invoquent ces services techniques. EJB 3.0 introduit la notion d’intercepteur (Interceptor) : c’est une méthode qui intercepte l’invocation d’une méthode métier sur un EJB Session ou un EJB Message-driven. EJB 3.0 propose même d’associer à un EJB Session une liste de classes Interceptors, dont les méthodes intercepteront les invocations aux méthodes métier de cet EJB.


Le nouveau modèle de persistance

Avec l’émergence des frameworks de mapping objet/relationnel, comme Hibernate (JBoss) ou TopLink (Oracle), la spécification EJB se devait d’évoluer. Les EJB Entité incriminés deviennent eux aussi de simples POJO. Les annotations sont utilisées pour effectuer le mapping objet/relationnel et la gestion des relations entre entités. Un EntityManager, similaire à la Session Hibernate, permet de manipuler les objets persistants (EJB Entité) et de définir les requêtes en EJB-QL ou en SQL natif via l’API Query.

Pour son modèle de persistance, EJB 3.0 s’est totalement inspiré d’Hibernate. Ce qui n’est pas sans déplaire à JBoss, l’éditeur d’Hibernate, qui dispose ainsi d’une implémentation avant l’heure d’EJB 3.0 pré-release dans son serveur d’application JBoss. À noter qu’Oracle dispose également d’une pré-release d’EJB 3.0.

New-features-of-EJB-3.jpg

En résumé, on pourrait très schématiquement réduire la future spécification à l’équation : EJB 3.0 = Spring + Hibernate + annotations. Cette évolution arrive à point pour redorer le blason des EJB, et pour fédérer de nouveau les développements avec des POJO et un modèle de persistance unifié. Reste à savoir si les développeurs qui n’ont pas attendu après cette norme pour s’investir dans Spring, Hibernate, TopLink, Enhydra, etc., passeront le pas et basculeront sur le nouveau standard.
Ne m’appelez plus J2EE

EJB 3.0 est prévu pour fonctionner sur la plate-forme Java EE 5. Comme pour la nouvelle version du langage Java (Java 6) et de la plate-forme standard (Java 6 SE), la future version de la plate-forme Java d’entreprise perd sa dénomination J2EE et devient Java EE 5 (Java Enterprise Edition 5, JSR 255). L’objectif principal de cette nouvelle version est de simplifier le développement. Java EE 5 intègre bon nombre de fonctionnalités prévues pour EJB 3.0, comme les annotations, la programmation de POJO, l’injection de dépendances et de nouveaux API et frameworks. Java EE 5 fournira une bibliothèque standard de tags (JSTL, JSR 52), un Streaming XML Parser (StAX, JSR 173), les Web Services Metadata (JSR 181), une nouvelle version de JavaServer Faces (JSR 252). Le support des Web Services se renforce avec JAX-WS 2.0 (JSR 224) et JAXB 2.0 (JSR 222).
Sun fournit une implémentation Open Source d’un serveur d’application Java EE 5,  le projet Glassfish.
Une bêta de la plate-forme Java EE 5 est disponible à ce jour. La spécification finale est attendue en même temps que celle d’EJB 3.0, probablement lors du prochain JavaOne.


EJB 3 vs JDO 2
La spécification EJB 3.0 qui arrive vient en concurrence avec un autre standard de persistance initié par Sun, JDO (Java Data Objects). JDO ne sa cantonne pas aux bases de données relationnelles et supporte tous types de données. À la différence d’un outil de mapping O/R, qui colle à la base de données, JDO part du modèle objet et se situe donc à un niveau d’abstraction plus élevé. Avec l’arrivée d’EJB 3.0, la communauté Java se retrouve divisée entre les partisans de JDO et ceux d’EJB 3.0, qui pour certains se retrouvent dans les mêmes groupes de travail. Sur ce point, la stratégie de Sun qui consiste à multiplier les JCP pour faire plaisir à tout le monde n’est pas très claire. En février 2005, la version 2 de JDO a été ratifiée (JSR 243), mais après des semaines de tensions et de tractations. Les chefs de projet EJB 3 et JDO 2 expliquent que EJB 3.0 fournira un modèle de persistance unifié, tant pour les architectures J2EE que J2SE, et que JDO sera rendu compatible avec ce modèle. Il était temps de mettre tout le monde d’accord.


p. 1
Réduire
ConfigurationManager
Une nouvelle API pour configurer vos applications
Par Frédéric Milliot - copyright l'Informaticien, tous droits réservés

Apparue avec DotNet 2.0, l’API ConfigurationManager gère l’ensemble des besoins de configuration applicative. Puissante, déclarative, prête à la fois pour Vista et pour le Web 2.0, elle propose un modèle d’objet qui rend les fichiers INI et le registre définitivement obsolètes.


Cela se confirme : la vie est un éternel recommencement. Surtout chez Microsoft où, manifestement, l’équipe en charge du développement des API DotNet 2.0 s’inspire beaucoup du passé. D’abord dans le fait que la nouvelle version du framework fait complètement table rase des acquis des développeurs, notamment pour ce qui concerne la gestion des options et paramètres applicatifs. Vous avez investi beaucoup de temps à développer une classe métier de gestion du registre ? Grosso modo, vous pouvez la jeter ! L’ensemble de vos paramètres applicatifs n’est plus censé s’y trouver, et peu importe que vous ayez optimisé les choses en implémentant le remplacement automatique des options manquantes ou effacées, la surveillance réciproque des clés, etc. Et ne parlons même pas des fichiers INI. Bien qu’ils soient encore largement utilisés en production, bien qu’ils représentent une solution simple, efficace et flexible, ils font aujourd’hui figure d’histoire ancienne.

Car voici venue ConfigurationManager, la nouvelle API de DotNet 2.0, dont l’objectif est de simplifier le processus de lecture, de mise à jour et de déclinaison des paramètres liés aux applications. Le nombre de ces paramètres est en effet appelé à exploser, en particulier avec Vista et son interface vectorielle. Il était donc grand temps de repenser le problème et de trouver une solution unifiée qui réponde durablement aux exigences à la fois des applications locales et des applications Web. Mais là où la boucle cyclique se boucle, si l’on ose dire, c’est que l’approche fonctionnelle de ConfigurationManager découle en droite ligne des vieux
« propertyBags » de VB6. Pour une fois, les développeurs férus de ce langage auront donc une longueur d’avance sur leurs petits copains. Ce n’est pas du luxe, tant cette nouvelle API est dense et (une fois n’est pas coutume) mal documentée par MSDN. C’est d’ailleurs ce qui justifie cet article…


Objectif : configuration toutes options

Le décor étant planté, plongeons dans le vif du sujet. Ce mois-ci, notre objectif consistera à réaliser une gestion de configuration complète et à l’implémenter au sein d’une application de démonstration. Celle-ci ne fera rien, mais offrira un dialogue de gestion des préférences dont l’ensemble du fonctionnement sera fondé sur nos classes. Cerise sur le gâteau, il sera possible de choisir un langage d’interface pour l’application, et lors de sa sélection dans le dialogue des Préférences, l’ensemble des ressources du programme se relocalisera tout seul en temps réel, y compris le dialogue des préférences en cours d’utilisation. Prêt ? Allons-y !

Concrètement, System.Configuration.ConfigurationManager se distingue de l’approche classique par plusieurs grandes particularités. D’abord, les paramètres sont stockés dans un fichier dont le nom est normé comme étant celui de l’application suivi du double suffixe « .exe.config ». Au début, cela peut surprendre. Ensuite, la structure de ConfigurationManager reprend la judicieuse idée d’arborescence qui caractérise le registre et permet d’optimiser les performances de navigation et de mise à jour d’un ensemble de données qui peut être très volumineux. Enfin, s’ils sont implémentables de façon programmée, les (sous) ensembles de paramètres peuvent aussi être 100 % déclaratifs, ce qui en simplifie beaucoup la conception. C’est sur ce point, capital pour la bonne compréhension du modèle et sur les possibilités de gain de temps dans son application, que nous allons nous arrêter maintenant.

Imaginons une application lambda dont la fenêtre principale contiendrait un contrôle de type treeview. Pour permettre à l’utilisateur d’adapter l’interface à ses goûts, cette application propose trois options regroupées dans un sous-ensemble baptisé
« Préférences_UI ». Voici ces trois options : garder l’état du treeview persistant d’une session à l’autre ; changer la langue de l’interface (anglais, français, allemand, espagnol) ; et faire que les messages de l’application s’affichent soit dans une boîte de dialogue, soit dans la barre d’état du logiciel. On a donc deux options « oui/non » pour lesquelles le meilleur type porteur est bool, et une troisième – la langue – qui est une chaîne composée de deux indicateurs de culture et de langage, par exemple « en-US » pour l’anglais américain.

DotNet 2.0 invite l’architecte à concevoir cet ensemble de préférences UI comme un tout, donc comme un objet dont la classe, dérivant du type ConfigurationSection, serait définie de la façon suivante :

public class Preferences_UI : ConfigurationSection
{
 
// Resources_Preferences_UI private constants
// Nom de la section dans le fichier config de l’application.
  const string _cstrSECTION_NAME = "Preferences_UI";
// Noms des propriétés de la section.
  const string _cstrCULTURE = "Culture";
  const string _cstrMESSAGES_IN_DIALOG = "MessageInDialog";
  const string _cstrTREEVIEW_KEEP_STATE = "TreeviewKeepState";

// Resources_Preferences_UI properties
// Nom de la section dans le fichier config de l’application.
  public string SectionName
  {
    get { return (_cstrSECTION_NAME); }
  }

// Resources_Preferences_UI configuration properties
// Info en dialogue ou dans la barre d’état ?
  [ConfigurationProperty(_cstrMESSAGES_IN_DIALOG, DefaultValue = false,
     IsRequired = true)]
  public bool MessagesInDialog
  {
    get { return (bool)this[_cstrMESSAGES_IN_DIALOG]; }
    set { this[_cstrMESSAGES_IN_DIALOG] = value; }
  }

// Treeview persistant ?
  [ConfigurationProperty(_cstrTREEVIEW_KEEP_STATE, DefaultValue = false,
     IsRequired = true)]
  public bool TreeViewKeepState
  {
    get { return (bool)this[_cstrTREEVIEW_KEEP_STATE]; }
    set { this[_cstrTREEVIEW_KEEP_STATE] = value; }
  }

// Culture choisie pour l’application.
  [ConfigurationProperty(_cstrCULTURE, DefaultValue = "fr-FR",
     IsRequired = true)]
  [StringValidator(MinLength = 1, MaxLength = 40)]
  public string Culture
  {
    get { return (string)this[_cstrCULTURE]; }
    set { this[_cstrCULTURE] = value; }
  }

// Resources_Preferences_UI constructors
// PARAMETRES : (aucun).
  public Preferences_UI()
  {
  }
}


Cette courte définition mérite plusieurs commentaires. D’abord, on voit qu’elle ne comporte aucune méthode. C’est en cela que l’objet sous-ensemble de configuration est purement déclaratif. Ensuite, on voit que la définition d’une ConfigurationProperty pour chacun des paramètres suffit à leur donner vie. Cette définition se fait comme celle d’une propriété classique, avec des getters de retournement et setters d’assignation, mais elle suppose quelques indications en préfixe. Voyons un exemple de plus près :

  [ConfigurationProperty(_cstrCULTURE, DefaultValue = "fr-FR",
     IsRequired = false)]
  [StringValidator(MinLength = 1, MaxLength = 40)]


Dans cet exemple, l’attribut ConfigurationProperty supporte un nombre variable des paramètres. En l’occurrence, il s’agit primo du champ de données sous-jacent à la propriété ; secundo d’une valeur d’assignation par défaut (celle qui sera retourné par ConfigurationManager si aucune valeur enregistrée ne peut être lue) ; et tertio d’un flag sur le caractère obligatoire de la présence de cette valeur dans la section « Préférences_UI » du fichier « appli.exe.config » si cette section existe.

Remarquez ensuite qu’ont été indiquées les valeurs de bornage pour la taille de ce paramètre chaîne. On aurait pu les omettre, comme ont été omises un grand nombre d’autres options. Pour en connaître le nombre et la nature, il faut se reporter aux définitions des classes correspondantes. Dans notre cas, c’est StringValidatorAttribute. Elle découle de System.Configuration.ConfigurationValidatorAttribute, tout comme ses homologues IntegerValidatorAttribute, TimeSpanValidatorAttribute etc.


Le fichier « .exe.config » à la loupe

Nous voilà donc avec un objet « Preferences_UI » prêt à être interprété par l’application comme une collection autonome de paramètres. Avant de passer à sa gestion par l’application, voyons comment cet objet se présente dans le fichier « appli.exe.config » :

<?xml version="1.0" encoding="utf-8" ?>
<configuration>
    <configSections>
        <section name="Preferences_UI" type="Appli.Resources.Preferences.     "
TG_Preferences_UI, Appli, Version=2.0.0.0, Culture=neutral, PublicKeyToken=null" />
        <section name="Preferences_XX" type="Appli.Resources.Preferences.    "
TG_Preferences_XX, Appli, Version=2.0.0.0, Culture=neutral, PublicKeyToken=null" />
    </configSections>
    <Preferences_UI MessageInDialog="false" TreeviewKeepState="true"
        Culture="es-ES" />
    <Preferences_XX X1="default.txt" X2="10000" X3="00:10:00" />
</configuration>


Comme vous le voyez, le fichier « .exe.config » implémente une déclinaison spécifique de XML, d’où son ouverture universelle. Notre collection de paramètres y est présente d’abord dans l’en-tête (section « ConfigSections ») puis dans le corps de l’arborescence où chaque objet constitue une section par lui-même. Logiquement, l’en-tête sert à indiquer que les infos sont trouvables plus bas, ce qui peut éviter que l’application soit ralentie par un parsing long et infructueux. Dans le listing ci-dessus, comme d’ailleurs dans l’application témoin téléchargeable sur notre serveur, nous avons fait figurer un second sous-ensemble de paramètres, c’est-à-dire un second objet de type ConfigurationSection baptisé « Preferences_XX » pour les besoins de la cause. Grâce à lui, vous pourrez mieux voir ce qui appartient à l’ensemble de la configuration et ce qui est du ressort de chaque ConfigurationSection proprement dite.

À la lecture du contenu du fichier, on remarque plusieurs points intéressants. À commencer par le fait que les paramètres sont lisibles à l’œil nu. Ils apparaissent paramétrés dans l’ordre dans lequel ils sont déclarés – propriété par propriété – dans le corps de l’objet qui les définit. Notez aussi que le type de cet objet est spécifié in extenso dans l’en-tête. C’est une caractéristique typique des implémentations déclaratives, où l’objet n’est finalement rien d’autre que sérialisé et désérialisé dans son état courant. Enfin, sachez que si notre exemple reste relativement clair à l’œil nu, les fichiers .exe.config peuvent rapidement devenir très touffus. Par conséquent, ne craignez jamais d’être trop évident ou explicite dans le nom et la structuration de vos paramètres. Un point d’importance pour être tout à fait complet : l’ensemble des paramètres de configuration n’est sérialisé dans le fichier « .exe.config » que si l’application est exécutée en dehors de l’IDE. Ignorez cette petite facétie de Microsoft, et vous risquez de perdre quelques heures sans comprendre pourquoi vos algorithmes ne fonctionnent pas…
p. 2
Réduire
L’objet Configuration en détails

Passons maintenant à la gestion de ces ConfigurationSections par l’application. Schématiquement, il faut commencer par créer un objet Configuration. Cet objet – de préférence statique – contient l’ensemble des paramètres de configuration de l’application. Il est initialisé en une seule fois par la désérialisation de l’ensemble des paramètres enregistrés dans le fichier « exe.config ». Remarquez l’élégance de l’appel qui résout l’affaire en une (longue) ligne :

// Gets the current configuration from the .config file.
_config = ConfigurationManager.OpenExeConfiguration(
  ConfigurationUserLevel.None) as Configuration;

Ensuite, nous vous recommandons de vérifier la validité de chaque option ConfigurationSection déclaré. Cette précaution permet de réparer automatiquement la plupart des fichiers « exe.config » endommagés (sections ou en-têtes manquants, dupliqués ou tronqués). Enfin, une troisième étape permet d’assigner les valeurs désérialisées aux objets locaux. C’est en effet par le biais de ces objets que vous pourrez manipuler les paramètres comme bon vous semble. Voici d’abord une méthode simple de vérification de section :

static int _CheckMissingSection(string strSectionName,
  ConfigurationSection section)
{
  try
  {
// Ajoute la section en paramètre 2 à la configuration si elle est manquante.
    if (_config.Sections[strSectionName] == null)
      _config.Sections.Add(strSectionName, section);
    else
    {
// Remplace la section avec une nouvelle initialisée par défaut si des infos sont manquantes.
      if (!_config.Sections[strSectionName].SectionInformation.IsDeclared)
      {
  _config.Sections.Remove(strSectionName);
  _config.Sections.Add(strSectionName, section);
      }
    }
// Retourne indicateur “OK”.
    return (0);
  }
  catch (ConfigurationErrorsException ex)
  {
    return (TG_Exceptions.Display(-256, ex));
  }
  catch (Exception ex)
  {
    return (Exceptions.Display(-128, ex));
  }
}


Grâce à l’approche déclarative initialisée avec des valeurs par défaut, on dispose à tout moment d’instances initialisées par défaut pour chaque objet ConfigurationSection. On peut donc s’en servir sans difficulté si la description de l’objet ne figure pas dans l’en-tête du fichier ou si elle comporte des informations erronées.
Voici maintenant comment s’effectue l’initialisation des objets ConfigurationSection.

static int _GetPreferencesSections()
{
  try
  {
// Crée toutes les sections de préférences, initialisées avec leurs propriétés par défaut.
    _section_UI = new TG_Preferences_UI();
    _section_XX = new TG_Preferences_XX();

// Charge la configuration globale depuis le fichier “.exe.config”.
    _config = ConfigurationManager.OpenExeConfiguration(
 ConfigurationUserLevel.None) as Configuration;

// Vérifie toutes les sections.
    if (_CheckMissingSection(_section_UI.SectionName, _section_UI) != 0)
return (-1);
// Crée les sections.
    _section_UI = _config.GetSection(_section_UI.SectionName) as   
      TG_Preferences_UI;

// Répète les deux étapes ci-dessus pour chaque section de configuration.
    if (_CheckMissingSection(_section_XX.SectionName, _section_XX) != 0)
      return (-2);
    _section_XX = _config.GetSection(_section_XX.SectionName) as
      TG_Preferences_XX;

// Retourne indicateur “OK”.
    return (0);
  }
  catch (ConfigurationErrorsException ex)
  {
    return (Exceptions.Display(-256, ex));
  }
  catch (Exception ex)
  {
    return (Exceptions.Display(-128, ex));
  }
}


Pour simple qu’elle soit, cette méthode appelle plusieurs remarques fondamentales. En premier lieu, observez que les sections TG_Preferences_UI et TG_Preferences_XX sont créées avant toute possibilité d’erreur ou d’exception. De cette façon, si un problème se produit pendant le traitement préparatoire de l’objet Configuration, ces sections exposeront toujours leurs propriétés par défaut à l’application. Plus bas dans la méthode, remarquez qu’un cast explicite est effectué à la suite de l’appel de _config.GetSection. C’est ce cast qui permet le mappage de la section désérialisée sur l’objet ConfigurationSection en fonction de ses spécificités. Avec cette méthode, l’approche déclarative prend tout son sens, puisqu’elle seule suffit à ce que l’assignation s’effectue (via mappage) et donc à rendre l’objet immédiatement opérationnel.

Conséquence de cette facilité, on est condamné à répéter l’opération pour chaque objet ConfigurationSection qui compose la Configuration de l’application. D’où le fait que les mêmes appels soient répétés sur notre second objet exemple, « _section_XX », comme l’indique le commentaire dans le code. Cette succession d’appels manque singulièrement d’élégance. De plus, elle oblige le développeur à n’oublier aucun objet. Mais c’est la rançon de la souplesse et, au bout du compte, quand il faut produire, on se dit que ce choix n’est pas forcément le plus mauvais.

Pour finir, il nous reste à sauvegarder nos paramètres. Voici comment la chose s’opère :
static int _SaveDialogValues()
{
  bool bSaveOK;

  try
  {
// Modifie une valeur de paramètre pour l’exemple.
   _section_UI.MessagesInDialog = true;

// Initialise le flag de contrôle.
    bSaveOK = true;
// Parcourt la collection des objets ConfigurationSection pour vérifier
    qu’aucune section n’est verrouillée en écriture.
    foreach (ConfigurationSection cs in _config.Sections)
      if (cs.ElementInformation.IsLocked)
      {
        bSaveOK = false;
        break;
      }

// Enregistre la configuration courante dans le fichier.
    if (bSaveOK)
      _config.Save();
    else
      return (Errors.Display(-2, _crERR_PRF_SECTION_LOCKED, false));
// Retourne indicateur “OK”.
    return (0);
  }
  catch (ConfigurationErrorsException ex)
  {
    return (TG_Exceptions.Display(-256, ex));
  }
  catch (Exception ex)
  {
    return (TG_Exceptions.Display(-128, ex));
  }
}


Rien de plus simple : notre objet de Configuration globale _config expose une méthode Save. Celle-ci gère seule la sérialisation des objets ConfigurationSection qui composent la Configuration, encapsulant tous les traitements et vérifications nécessaires. Un peu plus haut, nous avons pris la peine de parcourir la collection des objets ConfigurationSection pour déterminer si l’un d’eux était verrouillé. Si tel est le cas, c’est qu’il est en train d’être utilisé par un éventuel thread de l’application, ce qui bien sûr empêcherait la sérialisation si on l’autorisait.

Voilà, nous avons essayé de vous offrir un tour d’horizon complet de la nouvelle API ConfigurationManager de DotNet 2.0, en traduisant de façon simple l’extrême complexité de la documentation officielle. Si pour vous cet exposé a été clair, sachez qu’il résulte d’un gros travail de digestion en amont. Il avait en effet été décidé que cette nouvelle API serait adoptée pour un projet quelques jours seulement après son lancement officiel. C’est un sous-ensemble de ce projet qui constitue l’application de test que vous pourrez télécharger sur notre serveur.

Sachez également que ConfigurationManager offre un éventail de possibilités qui va bien au-delà de ce que nous avons mis en œuvre. Non contente de constituer sans doute le principal frein à son adoption, l’extrême richesse de cette API explique aussi pourquoi on trouve encore si peu de ressources la concernant sur le Web. Ici, comme souvent pour les nouvelles API de DotNet 2.0, il n’y a guère que MSDN pour aller plus loin…
p. 1
Réduire
Les débuts laborieux de la RFID
par Bertrand Garé - copyright l'Informaticien, tous droits réservés

Rosalie6839_Copier5.gif
Depuis quelques mois, la technologie RFID (Radio Frequency IDentification) occupe le devant de la scène. En France, elle ne semble cependant pas emporter une adhésion rapide. Pourtant, tous les éléments technologiques sont prêts pour une large utilisation. Alors, pourquoi si peu d’empressement ?


Certificat6930_Copier6.gifCe chat n’est pas comme tous les autres. Il est identifié par une puce RFID, ainsi que l’indique son certificat.
La parution d’un article dans le quotidien « Aujourd’hui en France » sur les puces RFID implantées dans le bras de clients fidèles de certaines boîtes de nuit espagnoles a frappé les esprits. Cette vision cauchemardesque et anecdotique de l’utilisation de la technologie radio-fréquences masque pourtant l’extension rapide de son utilisation dans le monde.
Ainsi, les déploiements chez Wal-Mart aux États-Unis et Metro en Allemagne, ou Marks & Spencer en Grande-Bretagne, font désormais partie de l’histoire ancienne. Chaque jour de nouvelles expérimentations sont mises en place. À l’étranger, les déploiements dépassent largement le stade des pilotes pour entrer en phase industrielle. En France, on se tâte encore et si le nombre de pilotes augmente régulièrement, principalement dans les grandes entreprises, il n’y a pas encore de raz de marée sur la RFID. Pourtant les applications mises en place à l’étranger prouvent bien que tous les ingrédients technologiques sont là pour répondre présent en vue d’importants déploiements.


Du nouveau dans le jeu de puces ?

Le principe de la radio-fréquence est simple : une puce, parfois aussi appelée marqueur, qui permet de stocker des informations, est reliée à une antenne pour transmettre les données par la voie des airs. Le tout est déposé sur un support, ou « inlay », plus ou moins sophistiqué. Ces trois éléments caractérisent les qualités des éléments RFID utilisés. Ainsi, la taille de la mémoire permet de stocker plus ou moins d’informations. Plus elles sont nombreuses et plus les éléments de suivi, par exemple, seront précis. La force du signal ou la fréquence augmente par ailleurs les performances en termes de distance de lecture. Elle peut ainsi aller de quelques dizaines de centimètres à plusieurs kilomètres pour les puces actuellement sur le marché. Enfin, l’inlay permet aux puces de résister plus ou moins longtemps dans des environnements difficiles. Dans les blanchisseries, la puce doit résister à l’humidité et à la chaleur. Dans les chaînes de peinture de l’industrie automobile, la résistance à la température est également nécessaire pour le fonctionnement. Certains supports permettent de subir des pressions importantes.
Tous ces éléments font que les puces ont des performances et donc des utilisations différentes, selon les besoins et les moyens. Ces éléments influent évidemment sur le prix des puces et donc sur le coût des projets de radio-fréquence.

coupedumonde6836_Copier7.gifLes billets du Mondial sont équipés d’une puce RFID pour permettre l’identification de la place précise du spectateur dans le stade. Seuls les portiques menant à cette place réservée s’activeront au passage du spectateur.
On distingue ainsi plusieurs catégories de puces. Les puces dites basse fréquence utilisent la fréquence 125 kHz. Elles sont principalement utilisées pour le marquage du bétail, des animaux domestiques, des arbres, et pour les aficionados de boîtes de nuit… Pour ne pas créer d’effet de rejet, comme lors d’une greffe, les puces RFID sont le plus souvent protégées par une pellicule de verre placée juste sous la peau. Leur innocuité pour les organismes est évidemment prouvée.
Le deuxième type de puce emploie la bande de fréquence 13,56 MHz et il est communément appelé haute fréquence. Ces puces sont principalement destinées aux fonctions de type badge dans les entreprises ou de contrôle dans les transports. Dans ce secteur, la RFID haute fréquence fait appel à un spectre de fréquence encore supérieur, appelée Ultra Haute Fréquence (UHF). Dans ce cas, la fréquence dépend de la loi en vigueur dans chaque pays. Jusqu’à présent, l’autorité de régulation française a été timide et n’autorise que des fréquences offrant des performances limitées. La volonté affichée des pouvoirs publics, et particulièrement du ministère de la Défense, de libérer certaines fréquences, devrait résoudre, au moins pour un temps, ce problème. Cette question représente cependant toujours un frein au véritable déploiement à grande échelle.
Actuellement, il faut demander une dérogation pour pouvoir utiliser ce type de fréquence sur un site. À la suite de l’obtention de cette dérogation, il est alors possible de mettre en œuvre le projet, mais sur le seul site concerné. Quand vous avez plusieurs usines et entrepôts, il faut vraiment aimer la paperasserie administrative ! Ces puces sont principalement utilisées dans le secteur de la logistique et des transports. Il est à noter qu’à cette fréquence, la lecture n’est pas possible à travers l’eau, donc du corps humain.
Encore plus puissantes, les puces hyper fréquence, ou micro-onde, utilisent la bande 2,45 GHz et permettent des applications sur des rayons d’action importants, comme le suivi de parc de véhicules sur de larges zones industrielles par exemple.
Encore plus fort, des puces utilisant des ondes de type radar permettront de faire du suivi à plusieurs centaines de kilomètres. Pour le moment, cela semble encore du niveau du laboratoire, mais les puces existent et les premières applications devraient arriver dans les deux ou trois ans à venir.
Plus la fréquence est élevée et plus la masse des informations échangées et la rapidité de cet échange sont importantes, autorisant la mise en œuvre de fonctionnalités intéressantes, comme de la cryptographie ou l’anticollision. Il existe quatre méthodes pour permettre à un lecteur de communiquer avec différents marqueurs entrant dans son champ d’action. Un article succinct sur Wikipedia, à la rubrique RFID, vous permettra d’approfondir rapidement ce point précis.
Autre distinction nécessaire pour faire un tour à peu près exhaustif du monde des tags RFID, celle qui existe entre les tags actifs, passifs et semi-passifs :
• les tags passifs n’ont pas besoin d’alimentation, hors celle fournie par le lecteur lors de l’échange d’informations ;
• les tags actifs disposent de leur propre batterie. L’inconvénient de ces puces est de trahir leur présence par cette alimentation. Se pose alors la question de la sécurité de ces marchandises ;
• les tags semi-passifs n’utilisent pas de batteries pour envoyer des signaux et agissent comme des tags passifs, mais leur autonomie permet l’enregistrement de données lors du transport, par exemple. Ils peuvent aussi enregistrer des températures ou des pressions à intervalles réguliers.

Ruban-Bracelet-Rose-RFI7188.gifLes puces peuvent prendre de multiples formes. Ici, un exemple de bracelet avec une étiquette, de Paxar.
Ces caractéristiques permettent des combinaisons quasiment infinies qui répondent à tous les besoins. Les plus utilisées ou les plus médiatisées sont les puces UHF. La plupart des fabricants, éditeurs, fondeurs voient dans cette gamme d’usages le potentiel le plus important.
Le prix des puces commence d’ailleurs à baisser tendanciellement du fait de l’accroissement des volumes de production. Olivier Briand et Philippe Muller, respectivement en charge du développement et du marketing chez Philips semi-conducteurs, en témoignent : « Le niveau de prix dépend du produit, mais dans les gammes HF ou UHF avec une taille de mémoire réduite, le prix est aujourd’hui aux alentours de 20 cents d’euro. La volonté de tous les acteurs du marché est que ce coût ne soit plus un frein au déploiement. » Pour donner un ordre d’idée, le point d’équilibre d’un projet RFID pour des billets de transports est de 10 cents d’euro. Dans de très gros volumes, le fabricant israélien SmartTronics propose dès aujourd’hui un prix à 5 cents d’euro. Pour des projets dits en boucle fermée (avec la possibilité de réutiliser les puces en lecture et écriture), la barre est placée encore plus bas. Le prix des puces n’est donc plus le frein principal à la mise en œuvre des solutions RFID.
p. 2
Réduire
Des lecteurs tous usages

TAXI8736_Copier12.gifAu Terminal 1 de Roissy, les taxis entrent dans les parcs de stationnement par une identification RFID placée sur le véhicule.
Les matériels pour lire ces différentes puces sont aujourd’hui disponibles. Les principaux constructeurs se concentrent évidemment sur le segment de lecture des puces UHF et HF, mais des constructeurs comme Balogh proposent des lecteurs pour des puces plus haut de gamme, principalement dans le secteur du transport ferroviaire.
Certains lecteurs combinent aujourd’hui la possibilité de lire les tags RFID et les anciens code-barres. Ils sont de toutes les tailles et de toutes les formes. Certains, comme chez Maintag, se présentent sous la forme d’un gros stylo.
La principale classification se réalise entre lecteurs fixes et mobiles. Les lecteurs fixes regroupent les équipements comme des portiques ou des tunnels réalisant automatiquement la lecture au passage de la puce.
Les efforts de standardisation autour d’EPC Gen2 simplifient aussi les fonctionnalités de lecture de ces matériels. Même si EPC Gen2 ne peut être encore considéré comme un standard, il emporte de plus en plus l’adhésion face aux autres codes présents de part le monde. Hibiki, un code présent au Japon et en Corée, ne semble pas s’imposer en dehors de ces pays et est clairement en perte de vitesse. Seul Ubiquitous, un code chinois, peut encore avoir des velléités de contrer EPC, du fait de la puissance de son industrie manufacturière. Mais la plupart des donneurs d’ordre en Chine ayant plus ou moins adopté EPC, ce dernier devrait s’imposer peu à peu comme la seule norme.


Un vaste panel d’offreurs de périphériques

stylomaintag8046_Copier10.gifUn des lecteurs de Maintag se présente comme un gros stylo.
Les principaux périphériques dans le monde de la RFID sont les imprimantes spécialisées. Tout comme pour les codes barre, il est possible d’imprimer des étiquettes RFID. Le principal fournisseur d’imprimantes RFID dans le monde est Zebra Technologies. Cette société vient d’ailleurs de signer un partenariat avec la branche de services spécialisés dans le déploiement de solutions de radio-fréquence d’IBM aux États-Unis.
Il existe cependant d’autres marques comme Paxar, qui fournit les étiquettes pour Marks & Spencer, ou Sato, Datamax… La présentation et le fonctionnement de ces périphériques est d’ailleurs très proches de ceux réalisant des impressions de codes à barre.
 

Alors, pourquoi un déploiement si lent ?

Toutes les personnes interrogées lors de notre enquête se rejoignent sur un point. L’utilisation de la RFID est bien plus avancée dans les autres pays qu’en France. Serait-ce encore un effet de la particularité française ? Pourtant, nous venons de le voir, techniquement tout est prêt pour répondre à la demande. Il faut cependant concéder que le nombre de pilotes augmentent. Nombre d’applications son très intéressantes. Ainsi, Maintag propose une solution pour permettre de suivre les tubes à essai en milieu hospitalier.
Les taxis dans les aéroports parisiens sont d’ores et déjà gérés dans leurs parcs de stationnements par des solutions de type RFID. De grandes entreprises, comme la RATP ou la SNCF, déploient des solutions intéressantes à la fois pour la maintenance de leurs matériels et le suivi du parc de véhicules. Ces projets donnent cependant l’impression d’être les arbres qui cachent la forêt de la masse d’entreprises peu enclines à se convertir à cette solution.
On peut cependant avancer quelques raisons pour expliquer cet état de fait.
Tout d’abord, la RFID ne correspond pas à tous les besoins et ne devrait pas remplacer partout le code barre, considéré comme économiquement plus intéressant et souvent plus facile à mettre en œuvre.
À partir de ce constat, les entreprises, principalement les PME, ne voient pas l’intérêt de déployer des solutions en bousculant ce qui marche déjà. Une des possibilités de développement est de combiner les étapes en RFID pour obtenir une automatisation poussée sur certaines tâches apportant peu de valeur à l’entreprise dans les entrepôts ou les usines.
Autre point de blocage, les entreprises, d’après nos discussions, semblent avoir du mal parfois à trouver rapidement un retour sur investissement du fait de leur faibles outils de reporting et renoncent à passer le cap, faute de saisir les bénéfices qu’elles peuvent en tirer.
Le point noir le plus important reste cependant les impacts organisationnels et métier qu’impose la mise en œuvre de certains projets RFID. Le point commun des projets réussis actuellement est de refaire en radio-fréquence ce que les entreprises réalisaient autrement auparavant en permettant un contrôle plus fin. Ce type de projet ne bouscule pas l’organisation ou la manière de travailler en profondeur. Ces projets semblent mieux acceptés.
Soyons tout de même optimistes, pour la RFID le meilleur est à venir. Les offres technologiques sont prêtes, même pour des déploiements de très grande envergure. Les freins sont donc encore dans les têtes plus que dans les faits.


Pour aller plus loin
En plus des sites des fournisseurs, dont nous donnons le nom dans cet article, il est assez simple de trouver beaucoup de documentation sur la RFID, l’un des sujets phare du moment. Le site filrfid.org regroupe la plupart des actualités, mais aussi des livres blancs ou tout ce qui concerne la RFID. Créé l’année dernière, ce site est ainsi le premier web quotidien sur la question dans notre pays. Sur ce site, vous trouverez aussi des possibilités de contact avec l’APAR (Association des professionnels des applications radiofréquence), une association loi 1901 qui a pour vocation le développement d’applications dans ce domaine. Elle réunit à la fois des fournisseurs et des entreprises clientes.

p. 1
Réduire
Les meilleurs outils professionnels
Le Top 15 de l’Open Source
Par Noe Barat - copyright l'Informaticien, tous droits réservés

Le logiciel libre continue de bouleverser radicalement le monde de l’industrie du logiciel. Des logiciels phares Open Source se sont avérés si bien conçus qu’ils sont devenus des standards de fait. Nous allons en passer quelques-uns en revue sous l’angle de leur utilisation en entreprise.


contraintes.jpg Tout d’abord : Open Source ou Free Software ?

Le terme Open Source a été inventé pour rallier, sous une même bannière, différents types de licences incarnant l’idée de liberté dans un contexte logiciel. On parle parfois de « free software », ce qui soulève une ambiguïté car le mot anglais free signifie autant libre que gratuit. Or, il existe une différence importante entre liberté et gratuité, et on pourrait traduire Open Source par (logiciel) « ouvert à tous ». C’est pour cette raison qu’en 1998 un groupe de personnes, dont Linus Torvalds et Bruce Perens, se sont mis d’accord pour essayer de définir plus précisément ce concept en proposant une définition qui repose sur neuf contraintes
( http://www.opensource.org/docs/definition.php ). La première de celle-ci est la diffusion libre du logiciel, la licence ne pouvant exiger un paiement ou une contribution sous une forme quelconque en échange de l’utilisation du software. En revanche, le sixième critère déclare que la licence ne peut entraîner une restriction relative à des domaines spécifiques. Ce qui rappelle aux utilisateurs qu’un logiciel a un coût, et que ce n’est pas parce qu’un logiciel est ouvert qu’il est nécessairement interdit de l’utiliser commercialement parlant (*). Le deuxième critère est aussi le plus connu : un logiciel qui se déclare libre doit être livré avec son code source – et permettre la distribution du software aussi bien sous la forme de code source que sous une forme binaire compilée.
Ajoutons aussi que la licence GPL a reçu le qualificatif de GNU Public Virus de la part de certains détracteurs. En fait, elle touche du doigt certains objectifs politiques, et d’ailleurs il faut remarquer que d’après Richard Stallman, « le Mouvement du logiciel libre et le Mouvement Open Source sont comme deux partis politiques à travers une communauté » (réf. : « Pourquoi “Free Software” est-il meilleur que “Open Source” », par Richard Stallman, http://www.gnu.org/philosophy/free-software-for-freedom.fr.html ).


Un cas à part : XGL, Gnome et KDE

Gnome et KDE sont deux environnements de bureau livrés avec la plupart des grandes distributions généralistes. Alors que l’interface 3D Aero de Windows Vista tentera de rattraper la qualité graphique pour Mac OS X (transitions en 3D, fenêtres translucides, etc.), ces deux bureaux ne restent pas à la traîne en préparant Xgl+Compiz sous linux (qui est libre, gratuit, et utilisable en toute légalité). Microsoft a annoncé que le système Windows Vista de base n’offrira qu’une interface 2D classique de type Windows XP, et c’est sans doute une chance pour Linux qui pourra ainsi s’imposer de plus en plus sur le bureau.
Xgl est un serveur X open source qui fonctionne au-dessus d’OpenGL et qui permet d’utiliser les capacités 3D des cartes graphiques. Vous obtenez ainsi des effets d’affichage tels les rotations de fenêtres. Compiz, qui tourne sur XGL, permet d’afficher plusieurs bureaux sur un cube avec lequel vous pouvez effectuer des rotations. Si vous voulez tester cette solution libre sous Linux sans installer quoi que se soit, nous vous recommandons vivement de télécharger le CD-Rom live Kororaa. On parle aussi beaucoup de KDE 4 qui gérera de manière native l’ensemble des Widgets de Mac OS X ! KDE 4 reposera sur QT4 – moins gourmand –, et intégrera une multitude d’effets visuels (Coolness). Kororaa : http://kororaa.org/


Catégorie 1
Serveur Web - Apache

Comment oserions-nous commencer une classification quelconque sans parler de ce logiciel étonnant, et dont le succès est considérable ? Apache s’est imposé par le simple fait du bouche à oreille et il est devenu le serveur Web le plus utilisé dans le monde. Moins d’un an après son lancement, en 1995, Apache avait déjà dépassé en nombre le serveur httpd du NCSA. Sa force : le contrôle du code source qui permet de l’adapter très rapidement aux changements brusques du Web. Apache est aussi d’une stabilité remarquable. Si au départ il a été conçu pour Linux, il a depuis été également porté sous Windows. À côté de cela, il existe la Fondation Apache qui est une organisation à but non lucratif développant des logiciels libres (sous la licence Apache). Les projets issus de cette fondation sont variés. Citons dans le désordre : Ant, Jakarta, Struts, XMLBeans, Maven, Excalibur, Geronimo, SpamAssassin, etc.
Apache : http://www.apache.org/


Catégorie 2
Serveur d’authentification - OpenLDAP

LDAP (Lightweight Directory Access Protocol) est un service d’annuaire d’entreprise qui permet de centraliser des informations sur un serveur en les structurant d’une manière hiérarchique. Le protocole utilisé est indépendant de la manière dont ces informations sont stockées. OpenLDAP est un une implémentation Open Source pur Linux.


Pourquoi LDAP et non une base de données seule ?
Un annuaire fonctionne comme une base de données dont le but premier serait de retourner un ou plusieurs attributs d’un objet grâce à des fonctions de recherche. Par rapport à une base de données relationnelle, un annuaire est très performant en lecture et non en écriture.



Un serveur de type LDAP peut jouer un triple rôle : celui de serveur d’annuaire ; celui de serveur d’authentification qui permet l’accès via un seul login à plusieurs serveurs ou ressources ; et enfin celui d’un serveur passerelle entre annuaires ou logiciels. OpenLDAP permet de faire migrer les mots de passes, groupes et utilisateurs issus de machines individuelles dans l’annuaire en vue de centraliser les informations d’authentification. Cette opération s’avère moins compliquée que l’on ne pourrait le penser, car elle consiste à remplir des fichiers LDIF (LDAP Data Interchange Format) avec le contenu des fichiers /etc/passwd, /etc/shadow et /etc/group, puis à les importer vers le serveur. Ce format LDIF est lisible car il s’agit d’un texte en ASCII, les données binaires étant codées en base 64. Le premier attribut d’une entrée est le dn (Distinguished Name). Chaque attribut a un type (par exemple le type « mail ») et une valeur (adresse mail). Des scripts PERL existent pour réaliser cette opération comme migrate_passwd.pl ce qui fait que, aujourd’hui, il est relativement simple à installer. Et ce n’est pas sa seule qualité : il est en effet très répandu, très performant (même en présence de gros volumes de données), et dispose de nombreux « connecteurs » vers des sources de données (comme PostgreSQL) et langages (Perl, mais aussi Python, Mono, etc.). Sa communauté est également une des plus actives du genre.  
OpenLDAP : http://www.openldap.org
p. 2
Réduire
gagnant.jpgCatégorie 3
Serveur de courrier électronique - SendMail

En matière de serveur de messageries Sendmail est le logiciel Open Source par excellence qui a été développé en 1981 par Éric Allman. C’est sur Sendmail que repose, en grande partie, l’infrastructure de messagerie des fournisseurs d’accès à Internet. Et si Sendmail est capable de soutenir le trafic d’un fournisseur d’accès, il sera évidemment aussi capable de supporter n’importe quel flux de messages en entreprise. Le prix à payer sera d’assimiler les arcanes de la configuration de ce logiciel. SendMail n’est souvent pas le serveur de messageries installé par défaut par nos distributions préférées. Debian emploie Exim, d’autres distributions ne jurent que par Qmail ou PostFix… Pourquoi ? Parce que s’initier à SendMail exige du temps et que, sans documentation, la configuration de SendMail semble inextricable, mais une fois mise en place vous obtenez une solution très robuste et très scalable. En 1997, Allman a créé une structure commerciale sur des fonds privés pour produire une version commerciale, mais la société continue à diffuser une version Open Source.
SendMail : http://www.sendmail.org/


Catégorie 4
Serveur de fichiers - Samba

Samba est apparu en 1993. Samba peut remplacer les serveurs de fichiers MS-Windows (supportant le protocole SMB/CIFS) tout en mettant la barre très haut : un serveur Samba sera plus robuste, aussi sécurisé, plus performant, et reviendra moins cher par accès client (sans coût supplémentaire d’acquisition d’une licence d’accès par client car il est sous licence GPL). Vous pouvez l’utiliser pour le partage de fichiers ou d’imprimantes sur un réseau mixte Windows/Linux. Samba est un projet actif auquel participe une vingtaine de développeurs. Il est cependant moins performant que NFS, mais d’après une étude récente Samba 3 est quand même jusqu’à 2,5 fois plus rapide que l’implémentation SMB de Windows serveur 2003 (source : http://www.vnunet.com/itweek/news/2085206/samba-beats-windows ). Depuis la version 2.02, Samba peut jouer le rôle d’un domaine primaire Microsoft. Il ne peut se passer que quelques jours entre les sorties successives de deux versions, ce qui est vu comme très positif par tous les administrateurs – grâce, encore une fois, à la disponibilité du code source et malgré l’énorme difficulté d’obtenir des informations sur les protocoles non documentés par Microsoft.
Samba : http://www.samba.org/


Catégorie 5

Serveur DNS - Bind

Le démon BIND (Berkeley Internet Name Domain) est le serveur DNS (Domain Name System) le plus utilisé sur Internet quoique totalement inconnu du grand public. Il réalise le lien nom-serveur en transposant une adresse internet (80.118.147.176) sous une forme que tout le monde peut comprendre facilement (linformaticien.fr ). Ce système est chapeauté par une figure légendaire d’internet, Paul Vixie (de l’ISC (Internet Software Consortium) http://wwww.isc.org ).


Catégorie 6

Serveur de serveur (virtualisation) - XEN

Xen est un superviseur (« moniteur ») de machine virtuelle (VM) x86 capable d’exécuter plusieurs instances d’un système d’exploitation. Xen est révolutionnaire, car il est très rapide, proche des performances de l’Operating System natif. C’est l’université de Cambridge qui a développé ce concept révolutionnaire et qui l’a placé sous licence GPL. Ce logiciel est désormais intégré à plusieurs distributions comme la Fedora ou la SuSE. Il permet de réaliser ce que l’on appelle de la consolidation de serveurs.
XEN : http://www.cl.cam.ac.uk/Research/SRG/netos/xen/


Catégorie 7
Distribution Linux - Ubuntu

C’est Mark Shuttleworth, le richissime homme d’affaires, qui a rêvé et réalisé le projet Ubuntu. Il s’agit d’une distribution Linux poursuivant les buts suivants : une disponibilité universelle sans contrepartie monétaire, une liberté de modifier tout ou partie de la distribution, un système à jour avec des versions planifiées, une stabilité et une fiabilité à toute épreuve, et enfin une communauté qui accueille et soutient toutes les formes de participation. Ubuntu est libre et gratuit. Ubuntu 6.06 Dapper Drake est la prochaine version prévue pour ce mois de juin.
Remarquez qu’il existe toute une série de sous-catégories de types de distributions : les distributions lives (qui sont exécutables via un lecteur de CD-Rom sans installer quoi que se soit), les distributions sources (entièrement compilées sur le système cible pour des performances maximales), des distributions pare-feu, etc. Ubuntu est la distribution « généraliste » (tout terrain) la plus populaire.
Ubuntu : http://www.ubuntu-fr.org/


Catégorie 8
Gestion intégrée ERP - Compiere

Compiere est l´ERP Open Source le plus utilisé dans le monde et se place dans le top 10 des applications d’entreprise de sourceforge.net. Il est disponible dans plus dix langues, dont le chinois et le français, et repose sur une architecture J2EE / Jboss (un serveur d´application lui aussi Open Source).
Compiere : http://www.compiere.org/
p. 3
Réduire
top10.jpgCatégorie 9
Navigateur - FireFox

Firefox a modifié radicalement le paysage des navigateurs : Opera est devenu gratuit et le développement d’Internet Explorer a repris. Mieux Firefox innove sans cesse : par exemple, la mise à jour du logiciel ne passe plus par le téléchargement du client complet. En effet, seuls les nouveaux composants sont désormais automatiquement rapatriés en tâche de fond dès qu’une correction est disponible. Autre innovation de FireFox 1.5 : un  nouvel outil « Effacer mes traces » qui permet de cocher certains types de données pour les effacer immédiatement (historique de navigation, informations enregistrées pour les formulaires, mots de passe, historique du téléchargement, cookies, cache du navigateur et informations enregistrées pour les « sessions authentifiées »). FireFox c’est aussi un monde à lui tout seul : il existe près de 700 extensions, dont par exemple BookMark Synchroniser qui se charge de synchroniser les marques-pages sur plusieurs machines (via FTP).
Firefox : http://www.mozilla-europe.org/fr/products/firefox/


Catégorie 10
Outil de développement - Eclipse

Le Projet Eclipse est une plate-forme de développement. Ce software est paramétrable, libre, gratuit et extensible par modules/ plug-ins qui ne se concentrent pas que sur le développement Java. Pour ce dernier langage, l’installation livre un module JDT qui permet de base d’explorer les packages, d’auto-compléter le code, de débugger, de gérer les tâches TODO, etc. Notez bien que JDT possède la caractéristique principale de fournir un compilateur java incrémental qui pré-compile en tâche de fond lors de l’édition (ce qui permet de proposer des correctifs si nécessaires).
Grâce à son architecture modulaire vous pouvez aussi configurer Eclipse pour d’autres langages (citons le PHP, le C/C++, le Cobol, le Python, le Latex, le Perl, Le Jython, le Ruby et Eiffel). Si par défaut Eclipse ne possède pas de fonctionnalités pour créer des interfaces graphiques de manière visuelle, il existe néanmoins plusieurs plug-ins capables de remplir ce rôle, comme VEP (Visual Editor Plugin ; qui appelle swing et Swt), ou encore Jigloo (qui est gratuit pour usage non professionnel) et qui gère également Swt et Swing.
Eclipse : http://www.eclipse.org/


Catégorie 11
Langage de programmation - Python

Python est un langage interprété, moderne et orienté objet. C’est probablement le langage Open Source le plus actif. Il dispose en effet de nombreux atouts comme un grand nombre de boîtes à outils graphiques. Il est portable, permet de développer rapidement, et s’interface facilement avec un langage de plus bas niveau comme le C. Soulignons aussi que Python est un langage dont l’apprentissage est extrêmement facile. Python a vu le jour au début des années 90 sous les doigts de Guido Van Rossum (au départ, il voulait entreprendre l’écriture d’un langage pouvant offrir une bonne alternative aux shells d’Unix).


Catégorie 12

Moteur de base de données - MySQL

MySQL est champion toutes catégories : d’abord il s’agit d’un des systèmes multithread et multi-utilisateurs les plus rapides du marché ; ensuite, il s’avère relativement simple à administrer et prend en charge SQL. Il supporte une grande diversité d’interfaces de programmation, dispose d’un système d’accès intégré n’autorisant la consultation qu’aux ayant droits. De plus, il est d’une taille réduite (comparé à certains SGBD commerciaux comme Oracle), s’exécute sous de nombreux systèmes d’exploitations, dont Linux et Windows, et enfin il est accessible sans restriction car il s’agit d’un projet Open Source sous licence GNU GPL (General Public licence).
MySQL : http://www-fr.mysql.com/


Catégorie 13

Outil graphique - The Gimp

The Gimp signifie GNU Image Manipulation Program. C’est l’outil graphique n° 1 en GPL qui est incorporé à n’importe quelle distribution Linux généraliste. On le compare souvent à PhotoShop en le présentant comme la version « libre » de cet outil commercial très connu. Il pourra s’utiliser pour la retouche, la composition ou la manipulation d’images. Cet outil a incité de nombreux utilisateurs à installer une distribution Linux pour la première fois, tant il est d’un haut niveau professionnel.
Gimp : http://www.gimp-fr.org/news.php


Catégorie 14
Outil bureautique - Open Office

OpenOffice.org est une suite bureautique libre distribuée sous licence GPL, disponible gratuitement  en 45 langues, dont le français. OpenOffice est développé, supporté, et promu par une communauté internationale de volontaires, avec comme principal sponsor Sun Microsystems. Il est disponible avec n’importe quelle distribution Linux généraliste. Actuellement, nous en sommes à la version stable 2.0.2. Il existe sous Linux une version portable qui fonctionne sur clé USB.
Open Office : http://fr.openoffice.org/
Version portable : http://portableapps.com/apps/office/suites/portable_openoffice


Catégorie 15
VoIP - Asterisk

Asterisk vous permet d’installer une passerelle va pouvoir relier un téléphone (classique, softphone ou IP) au réseau IP en utilisant un standard de l’industrie : le protocole SIP (acronyme de Session Initiation Protocol). Celui-ci s’impose pour l’instant en tant que standard de la voix sur IP. L’architecture d’Asterisk est extensible par programmation. Avec Asterix, vous pouvez  mettre en œuvre un PABX (Private Automatic Branch eXchange) sur PC (PCBX), c’est-à-dire un commutateur téléphonique privé qui servira à relier des postes téléphoniques internes entre eux ou/et avec le réseau téléphonique externe. Concrètement, si vous avez un accès ADSL et un serveur SIP Asterisk situés à deux points géographiques différents, vous pouvez faire en sorte de communiquer entre les deux sites et entre les lignes internes gratuitement (via SIP). Asterisk est beaucoup plus que cela : il vous aidera par exemple à surveiller les communications (monitoring) de manière à établir des factures téléphoniques par service (reports) ; il permet de transférer des appels en tenant compte d’une plage horaire, de les mettre en attente, d’utiliser la messagerie vocale, d’enregistrer des messages vocaux personnalisés, d’initier des conférences téléphoniques, de jouer le rôle d’un répondeur
Asterix : http://www.asterisk.org/
p. 1
Réduire
Le clonage express d’un système Linux

Administr-Linux-200.jpgUne fois que vous avez configuré votre machine Linux suivant vos besoins, et que vous avez effectué de nombreux réglages, vous pouvez facilement et rapidement déployer d’autres systèmes basés sur cette configuration simplement en la clonant. C’est l’un des « hacks » proposé dans l’ouvrage « Administration Linux à 200 % (tome 2) : 50 trucs, secrets et techniques », de Bill von Hagen et Brian K. Jones (278 pages) qui vient de paraître chez O’Reilly.


Maintenant que l’utilisation de Linux est répandue, de nombreuses compagnies n’ont pas envie de faire tourner leurs propres systèmes Linux et elles choisissent simplement de déployer des systèmes prêts à l’utilisation, basés sur des distributions provenant de sociétés telles que SUSE, Mandriva, Turbo Linux et Red Hat, qui assurent le support technique. Les entreprises, qui ont besoin d’un éventail plus large de logiciels système ou applicatifs que n’en proposent ces distributions, doivent souvent déployer des efforts non négligeables pour installer ces logiciels sur leurs serveurs et ordinateurs de bureau, effectuer un réglage fin des fichiers de configuration système, établir la connexion réseau, désactiver les services inutiles et établir leurs mécanismes d’entreprise d’authentification distribuée. Tout ceci demande un temps conséquent rien que pour arriver à un résultat acceptable, et encore plus de temps pour répliquer cette configuration sur plusieurs systèmes, et cela peut véritablement devenir une torture de devoir recréer la configuration en cas de besoin. Vous avez bien fait une sauvegarde, n’est-ce pas ?
Pour accélérer le déploiement de plusieurs systèmes essentiellement identiques, l’approche Unix classique que j’utilisais « au bon vieux temps » était d’acheter un grand nombre de disques de la même taille, d’utiliser l’outil Dd pour cloner le disque système (qui contenait mon système « maison ») sur les nouveaux disques et enfin de mettre en place les disques clonés dans chacun des systèmes où cela s’avérait nécessaire. Ceci est toujours une approche valable, mais qui présente un inconvénient : l’outil dd recopie chaque bloc du disque sans vérifier si ce bloc est effectivement utilisé ou non. Ce processus peut donc prendre des heures, même pour des disques relativement petits, et peut sembler interminable lorsque vous tentez de cloner les disques actuels de plus de 200 Go.
Grâce aux milliers de personnes intelligentes présentes dans la communauté Open Source, des solutions plus rapides et plus modernes à ce problème classique sont maintenant disponibles sous Linux. Les plus connues sont Ghost for Linux (ou g4l,http://sourceforge.net/projects/g4l/ ) qui tire son nom du paquetage logiciel commercial Ghost de Symantec (auparavant Norton) pour les systèmes Windows, et partimage, l’application populaire GNU Partition Image (http://www.partimage.org ).
Toutes deux sont des paquetages logiciels Open Source conçus pour créer des images compressées de partitions de votre système et pour vous faciliter la tâche pour restaurer ces images de partitions sur d’autres disques. Le logiciel Ghost for Linux est franchement ciblé sur l’utilisation sur des disques système bootables et offre une prise en charge intégrée du transfert des systèmes de fichiers compressés ou des images disques qu’il crée vers des serveurs centraux, par FTP. Il est donc particulièrement utiles lorsque vous devez démarrer et effectuer une sauvegarde d’un système qui ne peut pas s’amorçer seul. Ce hack se focalise sur partimage car il est plus simple à installer, à déployer et à utiliser sur un système en cours d’exécution.
Bien sûr, vous aurez besoin d’un espace disque suffisant pour stocker les images de systèmes de fichiers compressées, mais c’est un problème assez facile à résoudre de nos jours. Comme c’est le cas pour Ghost for Linux, vous ne pourrez pas utiliser partimage pour créer une image d’un système de fichiers monté et en cours d’utilisation, car un tel système de fichiers peut être modifié pendant la création de l’image, ce qui ne serait vraiment « pas bien ».
Partimage crée facilement des images compressées et optimales de quasiment tout type de système de fichiers que vous pouvez trouver sur un système Linux (et même de systèmes de fichiers que vous ne trouveriez pas). Il accepte des partitions ext2fs/ext3fs, FAT16/32, HFS, HPFS, JFS, NTFS, ReiserFS, UFS et XFS, bien que sa prise en charge de HFS (l’ancien système de fichiers de Mac OS) et NTFS (le système de fichiers Windows actuel) reste expérimentale.

(*) Il est de plus en plus fréquent de créer des images de partitions, petites et facilement redéployées, du fait de machines virtuelles, telles que Xen, dans lesquelles chaque machine virtuelle nécessite son propre système de fichiers racine. Bien que la plupart des gens utilisent dans ce cas un système de fichiers en loopback, ceux-ci représentent une forte consommation mémoire tant sur l’hôte que sur le client. Partimage facilite le clonage de partitions existantes qui ont été adaptées pour être utilisées avec Xen, ce que vous pouvez facilement réaliser alors que votre système s’exécute, si vous avez préparé un système de fichiers racine pour Xen sur sa propre partition.
p. 2
Réduire
Installer partimage

Partimage est plutôt simple à installer, mais il possède un certain nombre de dépendances. Pour compiler partimage, vous devez compiler ou avoir déjà installé les bibliothèques suivantes :

liblzo - Utilisée pour une compression rapide. Elle est disponible sur : http://
www.oberhumer.com/opensource/lzo.libmcrypt. Une bibliothèque de chiffrement nécessaire sur les versions plus récentes de partimage. Disponible sur : http://mcrypt
.hellug.gr/lib/index.html.
libnewt - Une interface semi-graphique, orientée texte. Disponible sur : http://www.partimage.org/deps/newt-0.50.tar.gz.

libslang - Un paquetage d’internationalisation utilisé par newt. Disponible sur :
http://www.s-lang.org.

libssl - Une bibliothèque de sockets sécurisés nécessaire pour les versions plus récentes de partimage. Disponible sur : http://www.openssl.org. Vous devez établir le mode partagé de cette bibliothèque après l’avoir configurée, au moyen de la commande configure suivante :

#./configure="" --prefix="/usr" -shared=""


libz - Utilisée pour la compression gzip. Disponible sur : http://www.zlib.org.

libbz2 - Requise pour la compression bzip2. Disponible sur : http://sources.redhat.com/bzip2.

Une fois que vous avez compilé et installé toutes les bibliothèques manquantes, vous pouvez configurer et compiler partimage au moyen des commandes de compilation utilisées en standard pour la compilation de la plupart des logiciels Open Source actuels :

#./configure && make install


C’est seulement après avoir fini la compilation et l’installation que les choses deviennent amusantes. Le résultat final de la commande make consiste en deux applications : partimage, qui est l’application que vous exécutez sur un système pour créer l’image d’une partition existante ; et partimaged, qui est un démon que vous pouvez exécuter sur un système afin d’y sauvegarder des images de partitions à travers le réseau, ce qui est un mécanisme assez analogue au transfert FTP proposé par Ghost for Linux.


Cloner des partitions avec partimage

FIG1.jpgFigure 1 : choisir une partition pour en créer une image et spécifier le fichier où enregistrer cette image.
Il est facile d’utiliser partimage pour créer une copie d’une partition existante et non montée. Comme partimage a besoin d’un accès brut aux partitions, vous devez exécuter la commande partimage en tant que super-utilisateur ou au travers d’un sudo. Comme le montre la figure 1, l’écran initial de partimage vous permet de choisir la partition dont vous souhaitez créer une image, le chemin complet vers l’emplacement où vous souhaitez enregistrer l’image et l’opération que vous souhaitez effectivement réaliser (dans ce cas précis, il s’agit d’enregistrer une partition dans un fichier). Pour passer à l’écran suivant, appuyez sur la touche F5, ou utilisez la touche TAB pour sélectionner le bouton Suivant et tapez Entrée.
FIG2.jpgFigure 2 : indiquer les méthodes de compression et autres options.
Le deuxième écran de back-up de partimage, visible à la figure 2, vous permet de spécifier le mécanisme de compression que vous souhaitez utiliser pour le fichier d’image. Vous pouvez indiquer ici que vous souhaitez vérifier la cohérence de la partition avant d’en créer une image, ce qui est toujours une bonne idée pour éviter de cloner un système de fichiers incohérent. Vous pouvez aussi optionnellement spécifier si vous souhaitez ajouter un commentaire pour décrire le fichier (ce qui est souvent judicieux si vous devez travailler sur un grand nombre de fichiers d’images de partitions). Vous pouvez aussi indiquer ce que partimage doit faire une fois que le fichier d’image a été créé : attendre des instructions, sortir automatiquement, arrêter la machine, etc. (la dernière solution vous sera probablement utile si vous avez démarré d’un disque de sauvetage contenant partimage afin de réaliser une image des partitions système de votre disque dur principal). Appuyez sur F5 pour passer à l’écran suivant.
Notez bien que le type de partition utilisé sur /dev/hdb6 est ReiserFS.
Le type de partition de la cible et la taille de la partition dont vous avez créé l’image n’ont aucune importance (tant que la partition cible peut contenir toutes les données non compressées du fichier image de la partition). Lorsque vous restaurez une image de partition, la partition sur laquelle vous écrivez les données de l’image est automatiquement créée avec le même type de système de fichiers utilisé sur la partition d’origine (celle qui a été sauvegardée dans le fichier image). L’intégralité de l’espace disponible sur la partition servant à la restauration est alors toutefois utilisé.
Si vous indiquez que vous souhaitez vérifier la cohérence du système de fichiers avant d’en créer l’image, Partimage vérifie le système de fichiers et affiche un écran de synthèse que vous pouvez fermer en appuyant sur Entrée après l’avoir consulté. Partimage procède alors à la création du fichier d’image de la partition spécifiée comme montré à la figure 3 et affiche un écran de synthèse lorsque l’image a pu être créée avec succès. Si vous aviez spécifié l’option Attendre (c’est-à-dire attendre des indications de votre part, qui est l’option par défaut) comme action à réaliser après la création de l’image, vous devrez appuyer sur la touche Entrée pour fermer cet écran de synthèse et quitter partimage.


Au moment où nous écrivons ce livre, la dernière version de partimage est la 0.6.4 qui n’est pas parfaitement compatible avec les systèmes 64 bits, et que je n’ai réussi à compiler avec succès sur aucun de mes systèmes 64 bits. Si vous avez besoin de partimage sur un système 64 bits et qu’il n’existe pas de version plus récente au moment où vous lisez ce livre (ou si vous êtes simplement pressé), vous pouvez toujours choisir de télécharger des binaires statiques pré-compilés pour votre système Linux. Ils sont disponibles sur la page de téléchargement du site de partimage, dont l’adresse est donnée à la fin de ce hack.

p. 3
Réduire
Restaurer des partitions avec partimage

FIG3.jpgFigure 3 : créer le fichier image d’une partition.
Restaurer une partition avec partimage vers une partition existante est une opération encore plus simple que la création de l’image. L’écran initial de restauration de partimage, montré à la figure 4, est analogue à celui de la figure 1. Il vous permet d’identifier la partition vers laquelle vous souhaitez restaurer l’image, le nom du fichier image que vous souhaitez restaurer et les actions que vous voulez effectivement réaliser (dans cet exemple, il s’agit de restaurer une partition à partir d’un fichier image). Pour passer à l’écran suivant, appuyez sur la touche F5, ou utilisez la touche TAB pour sélectionner le bouton Suivant et tapez Entrée.
FIG4.jpgFigure 4 : choisir une partition sur laquelle effectuer la restauration et le fichier image à restaurer.
L’écran de restauration suivant de partimage, montré à la figure 5, vous permet d’exécuter une vérification de cohérence en exécutant un essai de restauration à vide du fichier image, et vous permet aussi d’éliminer les blocs non utilisés à la création du système de fichiers cible. Comme pour le processus de création d’une image, vous pouvez indiquer à partimage ce qu’il doit faire une fois que le fichier image a été restauré : attendre des instructions, quitter automatiquement, arrêter ou redémarrer la machine, etc. Appuyez sur la touche F5 pour passer à l’écran suivant.
FIG5.jpgFigure 5 : spécifier les options de restauration et les actions à effectuer ensuite.
Partimage procède ensuite à la restauration effective du fichier image sur la partition spécifiée comme le montre la figure 6 et affiche un écran de synthèse (par défaut) lorsque l’image a été restaurée avec succès. Si vous aviez spécifier l’option Attendre (c’est-à-dire attendre des indications de votre part, qui est l’option par défaut) comme action à réaliser après la restauration du fichier image, vous devrez appuyer sur la touche Entrée pour fermer cet écran de synthèse et quitter partimage.


Synthèse

FIG6.jpgFigure 6 : restaurer une partition à partir d’une image.
La création de fichiers image pour sauvegarder les partitions de serveurs ou d’ordinateurs de bureau que vous avez configurées, optimisées et ajustées avec précision vous offre une méthode rapide et simple pour cloner ces systèmes sur une nouvelle machine. Vous pouvez toujours cloner des partitions contenant des applications, telles que /opt, /var, /usr et /usr/local. Votre schéma de partitionnement effectif reste bien sûr entièrement de votre ressort. Si vos nouveaux systèmes comportent le même matériel que le système sur lequel vous avez créé le fichier image, vous pouvez alors copier des partitions système pré-configurées telles que /boot et même /. D’une manière ou d’une autre, des applications telles que partimage vous font gagner beaucoup de temps sur la configuration de nouveaux matériels en vous permettant de réutiliser vos configurations existantes autant de fois que vous le souhaitez.


Voir aussi

La page d’accueil de Ghost for Linux :
http://sourceforge.net/projects/g4l/

La page de téléchargement de Ghost for Linux :
ftp://fedoragcc.dyndns.org

La page d’accueil de partimage :
http://www.partimage.org

La page de téléchargement de partimage :
http://www.partimage.org/download.en.html

La page d’accueil de System Rescue CD : http://www.sysresccd.org
p. 1
Réduire
INTÉGRER WINDOWS ET WEB
Live - La nouvelle vie de Microsoft ?
Par Hugo Lunardelli - copyright l'Informaticien, tous droits réservés

Bien plus qu’un ré-habillage des services MSN, Microsoft vise – via Live – à coupler étroitement Windows avec le Web.


Figure-1.jpgDepuis le dévoilement de la plate-forme Live, intervenue le 1er novembre dernier, Microsoft a procédé à l’annonce d’une salve de produits sans précédent dans l’histoire d'une entreprise plutôt réputée jusqu’ici pour ses retards à répétition.
De fait, il ne se passe pratiquement pas de jour sans l’introduction d’un nouveau service Live et il est difficile de suivre au quotidien l’ensemble de ces annonces sans que ne se fasse jour le sentiment d’une certaine confusion.
Quelques mois après l’introduction de Live, après avoir été témoins de l’annonce de dizaines de nouveaux services et plus récemment après la tenue de Mix 06 – conférence Microsoft destinée aux développeurs du Web –, un certain nombre de lignes forces commencent à se dégager. Elles donnent forme à une stratégie visant à coupler le poste Windows avec les potentialités du Web.


L’influence de Ray Ozzie

La paternité du changement stratégique incarné par le développement de Live peut être attribuée à Ray Ozzie, le concepteur de Lotus Notes (racheté depuis par IBM), puis directeur de Groove Networks, société elle-même rachetée en 2005 par Microsoft.  
Ayant rejoint Microsoft, Ozzie s’est vu attribuer par Bill Gates – un admirateur de longue date – le rôle de CTO (Chief Technology Officer). À ce titre, Ozzie produisit en octobre 2005 un mémo stratégique décrivant les nouveaux objectifs que Microsoft se devait d’atteindre pour continuer d’être un acteur majeur de l’industrie dans un environnement où l’internet devient une plate-forme de développement chaque jour plus importante.
Ce mémo, intitulé « The Internet Services Disruption », décrit le changement de paradigme en train de s’opérer et dans lequel Internet remet en cause le business model sur lequel Microsoft s’est bâti historiquement.
Selon Ozzie, Internet se pose chaque jour un peu plus comme une alternative de facto aux applications Windows. Le Web se métamorphose sous nos yeux en une plate-forme délivrant des services gratuits, ou plus exactement supportés par la publicité (l’annonce récente du rachat par Google de Writely, un traitement de texte hébergé, ne fait que renforcer a posteriori la pertinence de l’analyse). L’autre menace pour Microsoft découlant de l’avènement des services Web, tient à la manière et au rythme avec lesquels sont introduits ces services ; rythme qui contraste singulièrement avec les années nécessaires à développer des produits, comme Vista par exemple.
Le bouleversement en cours de l’écosystème sur lequel Microsoft a bâti son empire oblige ce dernier à un virage stratégique pour éviter une obsolescence rapide au profit d’acteurs « Web centriques », tels que Google et Yahoo. De ces constats formulés par Ozzie découlent les principes guidant les – très – nombreux services Live que nous allons tâcher de décrire plus avant.


Un nouveau partage des rôles entre MSN et Live

Les premiers services Live qui furent annoncés dans la foulée de l’annonce de Live consistaient essentiellement dans un renommage de services existants développés au sein de la division MSN.
MSN Messenger et Hotmail, pour ne citer qu’eux, ont ainsi été rebaptisés Windows Live Messenger et Windows Live Mail.
Ces changements de noms, qui dans un premier temps introduisirent une certaine confusion, n’ont rien de surprenant si on se rappelle que MSN avait fait l’objet il y a quelques mois d’un rattachement à la division Windows préfigurant des développements à venir.
La logique sous-jacente à ce « rebranding » consiste à séparer du portail MSN les services qui vont bénéficier de l’étiquette Windows Live. MSN en tant que portail continuera à fournir du contenu tandis que tout le reste sera rattaché à la marque Windows.


Les services Live annoncés à ce jour

Il est à noter que les services ci-dessous sont tous en version bêta, à l’exception de Xbox Live.  

Live.com – Un portail paramétrable par l’utilisateur, dans lequel chacun est invité à intégrer du contenu dynamique, par exemple des gadgets au sens Sidebar Vista du terme, des flux RSS… et qui intègre la dernière version du moteur de recherche Web de Microsoft.

Windows Live Custom Domains – Un service gratuit destiné à héberger votre nom de domaine de messagerie et comprenant la fourniture de 40 comptes e-mails dotés chacun de 250 Mo de stockage.

Windows Live Expo – Un site destiné à la vente d’objets et basé sur la notion de réseau de relations et de confiance. Ce service est conçu pour permettre de chercher des articles dans une zone géographique définie par l’utilisateur et bénéficie d’une intégration avec Live Local, un service de cartographie décrit plus bas.

Windows Live Favorites – Un service permettant de stocker les favoris d’Internet Explorer sur le Web de façon à pouvoir y accéder de n’importe quel ordinateur.

Windows Live Local – Un service de cartographie qui fournit non seulement un itinéraire routier, mais qui comporte une importante imagerie satellite et, dans certaines villes américaines, des photos de rues.

Windows Live Mail – S’inspirant du travail réalisé avec OWA (Outlook Web Access), Live Mail se pose en successeur de Hotmail. Développé sur une plate-forme Ajax, il a pour ambition de fournir la richesse fonctionnelle et graphique d’une application win32 sans renoncer à être une application Webmail.

Windows Live Mail Desktop – Une version cliente téléchargeable de Live Mail qui étend les fonctionnalités de ce dernier en ajoutant le support de flux RSS, la correction orthographique, le support de multiples boîtes POP. Basé sur une technologie Live Mail et Outlook Express, ce produit pourrait devenir le client de messagerie fourni dans Vista et succédant à Outlook Express.

Windows Live Messenger – Le successeur du très populaire MSN Messenger. Live Messenger est un client de messagerie instantanée qui intègre le support de la VoIP, de conversations vidéos et ajoute de nouvelles fonctions comme le partage de dossiers.

Windows Live OneCare – Un service de maintenance et de surveillance destiné à prévenir les infections virales et à contrer les logiciels espions (spyware). Il fournit également des services de sauvegarde automatique et d’optimisation des PC.

Windows Live Safety Center – Un service Web fonctionnellement similaire au précédent qui sera déclenché à la demande en vue d’analyser et détruire tout virus présent sur une machine. Il fournit également quelques conseils en vue de l’optimisation du poste de travail.

Windows Live Search – Un nouveau portail de recherche basé sur la technologie développée avec MSN Search. Les nouveautés introduites relèvent d’une interface utilisateur repensée, d’une navigation plus facile à travers un grand nombre de résultats, de recherche ciblée à l’intérieur d’un site donné et de recherches portant sur le contenu de flux RSS. Live Search est intégré au portail Live.com.

Windows Live Search Mobile – Une déclinaison de Live Search formatée pour les écrans de mobiles et les PDA.

Windows Live Toolbar – Le successeur de la toolbar MSN pour IE 6 et IE 7. Les services fournis comprennent le support des onglets, le blocage des pop-ups, la détection de flux RSS, le remplissage de formulaires Web.

Windows Live Family Settings – Un ensemble de services destinés à sécuriser l’accès des mineurs au Web. Basé sur le filtrage de contenu, la surveillance des contacts et la génération de rapports d’activité.
 
Windows Live Videos – Un service destiné à partager des vidéos en ligne, une réponse aux services similaires déjà proposés par Yahoo et Google.

Windows Live Image Search – Intégré dans Windows Live Search, Live Image Search permet une navigation intuitive parmi les résultats obtenus augmentée d’une prévisualisation simplifiée.

Office Live – Un ensemble de services hébergés destinés aux PME qui ne souhaitent pas se doter d’une infrastructure informatique propre. Les services offerts concernent l’accès à des outils de conception de sites Web et à leur hébergement, la gestion d’une messagerie via une interface de type Live Mail, l’hébergement d’applications de collaboration sur une base Sharepoint.

Xbox Live – La plate-forme utilisée par les développeurs de jeux sur la Xbox 360. Elle a fait récemment l’objet d’une annonce laissant entrevoir le développement de jeux impliquant un très grand nombre de joueurs connectés.
p. 2
Réduire
Les composants de Live

capt2.jpgLa Sidebar de Vista. Située à droite de l’écran, le conteneur des gadgets développés pour Vista (ici, un lecteur de flux RSS, une horloge, le lancement rapide d’applications, une corbeille).
La plate-forme Live est constituée de composants logiciels, de services Web et d’applications utilisateurs, comme Live Messenger.
Ces différents composants sont destinés à être mixés dans le cadre de développements de services Web, Microsoft fournissant plusieurs classes d’API à cet effet. De façon à aider cette nouvelle classe de développeurs, MSDN vient de se voir doté d’une section spécifique (http://msdn.com/live ).
Les API que propose Microsoft pour développer des applications Live se regroupent en trois jeux d’interfaces fondamentales : contacts, identité et stockage.
Au-dessus de ces interfaces, Microsoft propose aux développeurs une couche optionnelle de services communs qui comprend Windows Live Search, AdCenter, Presence, Mapping et Mobile interfaces. Tout développeur est libre d’intégrer tout ou partie de ces interfaces dans leurs applications.
En complément, Microsoft offre les applications et « expériences » Live, qui comprennent notamment Windows Live Mail, Windows Live Messenger, Live Spaces, Windows Live Marketplace, Windows Live video et Xbox Live gaming.

Comme on a pu le constater au vu de ce qui précède, Microsoft n’a pas perdu de temps depuis l’annonce de Live en novembre dernier.
Au risque de perdre ses utilisateurs, Microsoft a procédé à marche forcée pour livrer les différents composants qui lui permettront de renforcer les liens entre les postes Windows et le Web.
Live représente à cet égard beaucoup plus qu’un ensemble d’applications destinées à l’utilisateur final. Live constitue une nouvelle plate-forme de développements de services qui feront de plus en plus l’objet d’une intégration avec Vista, mais également Windows XP.
Avec Live, Microsoft amorce une mutation stratégique qui le conduit à s’éloigner progressivement du développement d’applications packagées pour entrer dans un modèle reposant sur des services hébergés.


Prévenir les actions légales

Il est intéressant de noter que l’extension des services de Windows représenté par Live permet de répondre indirectement aux accusations de bundling formulées par le ministère de la Justice américain, la Commission européenne sans oublier la Corée du Sud.
En développant de nouveaux services Live, Microsoft fait d’une pierre deux coups, puisqu’il renforce l’attrait de Windows sans nécessiter des années de développement et qu’il échappe aux critiques d’abus de position dominante que lui aurait valu l’inclusion de trop nombreux nouveaux outils dans Windows. La contrepartie de cette stratégie est le risque que des sociétés tierces développent des gadgets de meilleure qualité que ceux de Microsoft, mais c’est un risque dont les utilisateurs ne peuvent qu’être les bénéficiaires.


Synergie avec Windows

L’intégration de Live au sein de Windows se fera via une nouvelle fonctionnalité appelée la Sidebar. Disponible également sous Windows XP, la Sidebar sera placée dans un coin de l’écran, typiquement à droite, et servira à héberger des mini applications que Microsoft appelle gadgets. Ces gadgets pourront être déplacés d’un site Web vers la Sidebar, puis de la Sidebar sur le bureau directement. De fait, Microsoft pourra s’appuyer sur Live pour étendre les services de Windows via un simple glisser - déplacer.
Lors de la conférence Mix 06, Microsoft a présenté quelques exemples de développements tiers illustrant ce point. Yahoo présentait une version gadget d’un de ses outils (Widgets) permettant de chercher et de diffuser de la musique émanant de Yahoo ! Music. Un représentant de la BBC présentait son propre gadget permettant de chercher et de visualiser tout contenu de son catalogue, y compris des épisodes complets de séries déjà diffusées.
Microsoft annonce l’arrivée prochaine de progiciels « Live Ready », des outils conçus pour tirer parti des services fournis par la plate-forme Live.


Futurs développements

capt.jpgUn gagdet développé par Yahoo permettant de rechercher et de jouer un contenu de ce service. Les gadgets présentés ici s’exécutent directement sur le bureau sans recourir à la Sidebar.
De nouveaux services et une intégration sans cesse plus importante entre les composantes de Live sont à attendre dans les mois à venir.
À titre d’exemple, Blake Irving de la division MSN démontrait publiquement Live Communications, lors de la conférence VON qui s’est tenue au mois de mars.
Il s’agissait de démontrer l’intégration, en cours de développement, entre les contacts d’un utilisateur et les services de téléphonie et de vidéo que Microsoft compte développer. Depuis Windows Live Mail, Irving montrait comment initier un appel VoIP de PC à PC, ou de PC à ligne fixe, au moyen d’un clic droit sur un des contacts de son client de messagerie.
Microsoft compte 205 millions d’utilisateurs de Messenger, 26 millions de ceux-ci utilisant le service à un moment donné et enfin 230 millions d’utilisateurs Hotmail – bientôt Live Mail.
Seuls 9 % de cette population aujourd’hui utilise la VoIP. Microsoft estime que cette proportion passera à 20 % dans les douze prochain mois du fait des nouveaux services Live Communications présentés.
Irving estimait qu’une partie significative des lycéens et étudiants, qui aujourd’hui conversent simultanément avec un grand nombre de correspondants, choisiront de basculer vers la voix ou la vidéo avec leurs amis et leur famille dès lors qu’une réelle intégration leur sera apportée.

En conclusion, Windows Live est une plate-forme en rapide évolution, dont les développements à venir toucheront significativement notre usage du Web dans les années à venir.
Avec Live, Microsoft entre dans une logique de « mashup », incitant les développeurs à combiner les composants de ses services Web pour créer de nouveaux services reposant sur son infrastructure et étroitement liés à Windows, contribuant ainsi à pérenniser ce dernier.


Quelques API Live
Windows Live ID – Le successeur de Passport. Live ID est destiné à être utilisé comme identifiant unique pour tous les services Live ainsi qu’à être partagé entre applications Web. Live ID est indépendant du matériel utilisé et sera ainsi commun aux services Live développés pour le PC, la Xbox, les mobiles et même la télévision.
Windows Live Contacts – Un espace de stockage destiné à gérer les contacts associés à un Live ID, ainsi que des droits d’accès (ACL) correspondants à des ressources Web. Ce service permettra de transmettre les informations concernant la disponibilité d’un utilisateur, ce que Microsoft appelle la présence, et donnera aux contacts d’une liste un accès à certains sites, à l’instar de Live Spaces qui utilise ce mécanisme pour autoriser les accès.
Windows Live Alerts – Les alertes Live sont un service de communication englobant différents modes et concernant l’e-mail, la messagerie instantanée et le SMS. Les alertes prennent en compte la notion de présence (en ligne, absent, sur mobile, déconnecté) pour un routage intelligent des messages en fonction de règles prenant en compte l’état (« présence ») du destinataire.
Windows Live Messenger – La plate-forme pour les applications de communication en temps réel.
Windows Live Spaces – Une plate-forme de blogging autorisant la publication automatique de blogs.
Windows Live Storage – Une plate-forme de stockage pour l’hébergement de documents, de contenu multimédia… utilisée conjointement avec Spaces.
Windows Live Clipboard – Un développement discuté initialement par Ray Ozzie et visant à étendre la notion de clipboard (presse papiers) aux données situées sur les sites Web. L’idée étant de permettre la création de liens dynamiques de site à site, ou de site à poste Windows, un peu comme on réalise un copier / coller d’une application à l’autre.
Microsoft Gadgets – Une API permettant le développement de mini applications sophistiquées écrites en HTML et Javascript qui pourront soit faire l’objet d’un hébergement, soit résider dans des espaces privés ou, de façon plus intéressante, trouver place dans la future Sidebar de Vista, voire s’exécuter directement sur le bureau Windows.
Microsoft Atlas – La version .Net d’Ajax (Asynchronous JavaScript and XML). Atlas est un outil destiné au développement d’applications clientes interagissant dynamiquement avec un serveur utilisant ASP.NET 2.0, ainsi que tout autre pourvoyeur de données.