dimanche 25 septembre 2016
 
Edito
Réduire
Le pari de la transparence

newstef26526_Copier5.gifL’étude Ipsos IT 2007 à laquelle nous avons participé, et dont les chiffres seront publics dans les premiers jours du mois de février, confirme le nombre de lecteurs et le type de lectorat de L’Informaticien. Ipsos nous a demandé de conserver la confidentialité de ces informations jusqu’au 2 février et nous respectons cet engagement. Ils seront publiés sur notre site à cette date. Que tous nos lecteurs – acheteurs en kiosque et abonnés – soient chaleureusement remerciés. Tout le monde connaît la situation difficile de la presse payante et particulièrement de la presse informatique. Dans ces conditions, ces résultats sont pour nous un encouragement à faire plus et à faire mieux.

Ce numéro de février 2007 ne fait pas exception à la règle que nous nous sommes fixée depuis le début de cette aventure, à savoir un traitement équilibré des systèmes propriétaires et des plates-formes Open Source. De même, devant le succès des numéros de 2005 et 2006, nous renouvelons la présence de la cyborg en couverture du magazine. Doit-on en conclure que rien ne va changer dans le magazine ? Certainement pas ! Nous ne souhaitons pas vous infliger la vague de chiffres et de tendances que comporte l’étude. Complétée par nos propres enquêtes, elle est toutefois riche de significations et fait ressortir nos points forts et nos points faibles. Dans les points forts figure la dimension résolument professionnelle de la revue et de son lectorat. Parmi les points faibles, il semble que nous ne mettions pas suffisamment l’accent sur la mise en place concrète des solutions que nous présentons, le côté pratique assorti de retours d’expérience. Autrement dit, si l’Informaticien décrit bien ce qui existe ou va exister, il n’insiste pas assez sur les meilleures manières d’utiliser ces technologies.
Au cours des prochains mois, nous allons nous efforcer de répondre plus précisément aux attentes de nos lecteurs et de ceux qui ne le sont pas encore. Pour ce faire, nous préparons différentes modifications que nous vous détaillerons dans un proche avenir et qui aboutiront à la sortie d’une version 2.0 de votre magazine à la fin de l’été. Nous attendons également vos contributions à ce projet et nous mettrons en place dans les prochaines semaines un espace sur linformaticien.com réservé à cet effet.
Depuis sa création, voici un peu plus de 4 ans, nous avons fait évoluer la revue par petites touches sans en changer les fondamentaux. Les raisons de ces changements à pas feutrés sont liées à la satisfaction que vous avez pu manifester au cours des différentes consultations mais également – ne dissimulons pas la vérité – à la fragilité de notre entreprise. Depuis l’origine, nous avons fait le pari de la durée et nous n’avons jamais envisagé d’abandonner, malgré un équilibre financier précaire. Au fil des ans, nous avons consolidé notre situation, notamment en faisant le pari de la transparence auprès des annonceurs, c’est-à-dire en révélant des chiffres de diffusion réels et non pas survitaminés. La récompense de cette politique arrive aujourd’hui. Les résultats Ipsos IT ne sont pas une surprise puisqu’ils confirment ce que nous avons toujours affirmé depuis deux ans.
Aussi, je voudrais remercier publiquement tous les annonceurs qui se sont engagés à nos côtés sur la base d’un contrat de confiance. Ils seront heureux de constater qu’ils n’ont pas été trahis. Depuis les débuts de cette aventure collective, il ne faut pas se voiler la face : L’Informaticien n’aurait jamais pu se développer sans leur présence et leur engagement. L’immense Pablo Picasso qui avait connu – comme presque tous les peintres – des débuts difficiles se plaisait à dire que « lorsqu’on a du talent, cela finit toujours par se savoir ».
Je n’oserais affirmer que nous avons le talent, car ce n’est pas à nous d’en juger. Cependant, je sais que nous sommes déterminés, tenaces, et que nos résultats actuels ne sont pas liés à une quelconque sérendipité, mais bien à notre volonté de fournir un
nouvel éclairage sur les technologies de l’information au service des professionnels de l’informatique. Lors de la préparation du premier numéro, à l’automne 2002, notre directeur artistique avait proposé que nous indiquions sur la couverture « n° 001 ». Lorsque je l’interrogeais, il me répondit vertement : « Tu comptes n’en faire que 99 ? » Bienvenue, donc, dans ce n° 044.

Stéphane LARCHER
Sommaire
Réduire
MAGAZINE

Au Real Madrid, tous les flux glissent au fond des filets IP


DOSSIER SPECIAL LINUX

La scène française Linux en pleine effervescence

Le TOP 10 des applications Linux pour l’entreprise

L’administration de serveurs Linux au quotidien


RÉSEAUX & SÉCURITÉ

• VISTA – Visite guidée du Security Center :
la gestion des sécurités sous Vista


SERVEURS & SYSTÈMES

• VISTA – Comment préparer ses postes de travail
pour accueillir le nouveau Windows


POSTE DE TRAVAIL

VISTA – Les « Plus » de Vista (2e partie) : installation, déploiement, performance.
Vista vous rendra-t-il plus productif ?

SPÉCIAL LINUX – 2007 : enfin le bureau
sous Linux à la portée du grand public !

SPÉCIAL LINUX : Linux/Windows, quelle différence ?


LOGICIELS & APPLICATIONS

GESTION – Gérer la chaîne logistique : une demande implicite de « SCM »

DÉVELOPPEMENT – Bonnes feuilles : améliorer vos scripts Ajax


ITINÉRAIRES

Concours : Imagine Cup 2007, destination Corée

Métiers : L’assistance micro à domicile

Livres : Tout sur l’administration Postgre et des exercices pratiques pour Java
Métiers
Réduire
RÉPARATION INFORMATIQUE À DOMICILE
Un de la bande d’A6T !
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Les échoppes de réparateurs informatiques à domicile se font de plus en plus nombreuses. Mais qui sont ces réparateurs ? Informaticiens chevronnés ou jeunes bidouilleurs ? Quelles sont les conditions dans lesquelles ils travaillent ? Portrait d’un réparateur d’A6T, une enseigne nationale de services à domicile.

ecole2.jpg
Pas toujours évident de plonger les mains dans un ordinateur. Les techniciens d’A6T interviennent à domicile.
Éric Sancerry n’est pas né de la dernière version de Windows ! Il a même un sacré passé d’informaticien. Après une école d’ingénieur, l’INSA de Lyon, rien de moins, il entre chez Elf et y fait carrière pendant près de vingt ans. Au début, il travaille sur les grands systèmes. Puis passe à la « mini » et enfin à la micro. Il finit comme responsable des validations techniques pour le groupe. Il quitte l’entreprise pour monter sa propre société avec un logiciel novateur dans le secteur de la VoIP.
« J’y ai dépensé beaucoup de temps et d’énergie », se souvient-il. « J’ai développé un système autour de la téléphonie sur IP. J’étais un précurseur dans le domaine. Après, les gros sont arrivés. Parallèlement, je faisais du conseil et de l’assistance technique dans ma région. Je faisais surtout du conseil dans l’achat de matériel. Pour ma société, je cherchais pour voir comment mieux me faire connaître par la communication et me décharger un peu de la gestion comptable. Je voulais me repositionner. Je suis donc allé voir différentes sociétés pour savoir comment elles fonctionnaient. Le contact avec A6T a été très intéressant, avec une structure de communication et un soutien avec des services comptables mutualisés. Il est difficile d’être concurrentiel pour un indépendant. Il faut grossir en volume et être reconnu pour que la clientèle vienne. Cela se fait beaucoup par le bouche à oreille. »

Éric Sancerry devient employé d’A6T à temps choisi et réalise des dépannages auprès des clients de cette société, mais continue de faire vivre sa société de VoIP.

Des clients très divers

Ses interventions concernent autant ses propres clients qui proviennent de sa société que les clients d’A6T. Cette société de services de réparation informatique à domicile a joué depuis quelques temps la carte des partenariats. Elle détient ainsi des contrats d’assistance avec Cegetel et Rue du commerce. Les clients de ces sociétés utilisent les services d’A6T en cas d’incidents.
Les interventions sont très diverses. Éric Sancerry raconte : « Essentiellement, les gens font appel à des proches, mais ceux-ci n’ont pas toujours le temps ou ne savent pas faire la réparation nécessaire. Cela va du très basique, voire trivial, à des interventions parfois très pointues. Nous faisons jusqu’à l’installation des box. Il nous faut résoudre les problèmes en cas de non connexion. La plupart du temps, nous identifions le problème et nous le résolvons ou nous passons le cas au support technique si c’est plus complexe. La plupart des interventions proviennent surtout de présence de virus ou de spywares. Nous intervenons principalement sur Windows XP et Mac OS. »


Quel profil type ?

En fait, les réparateurs informatiques sont très divers. Leur âge est très variable. À côté de jeunes autodidactes, « de vrais cadors en micro-informatique », assure Éric Sancerry, on trouve des personnes ayant déjà une longue carrière informatique. Il reconnaît que certains n’ont pas une formation aussi poussée que la sienne.

Pour homogénéiser le niveau de ses techniciens, A6T est en train de développer une « école virtuelle » et s’implique dans la formation continue avec la mise en place d’une politique de certification. L’école virtuelle devrait être en place lors du second semestre de cette année et permettra une formation au quotidien, en particulier avec les fournisseurs. « Les techniciens pourront ainsi s’informer et se former. Ils pourront aussi remonter les problèmes sur certaines interventions. »


Et combien on gagne ?

Éric Sancerry a du mal à nous donner un revenu précis. « Je ne peux vraiment pas vous dire. Cela dépend dans quelle région vous êtes. Il est sûr que ça marche mieux en agglomération que dans les campagnes. Moi, sur Toulouse Sud, cela fonctionne bien. Cela peut aller d’un demi-SMIC à un SMIC et demi. L’heure de service client est facturée 60 euros TTC, mais comme nous sommes reconnus comme des services à la personne, il est possible de déduire 50 % de cette somme sur les impôts. »

Les VAE ont leur site

Les « validations d’acquis de l’expérience » ou VAE sont un des axes mis en place pour permettre à tout un chacun de progresser dans sa carrière professionnelle, même sans avoir réalisé de longues études validées par un diplôme. Une étude du CEREQ en 2005 pointait cependant ces cursus comme « complexes, longs et incertains ». En juin dernier, un plan gouvernemental a été mis en place simplifiant l’accès à cette validation. L’accompagnement reste cependant un point clé de la réussite de la validation de l’expérience. Pour améliorer ses services dans ce cadre, l’AFPA vient de mettre en ligne un site spécifique, www.oridisvae.fr, pour conseiller et accompagner les candidats à cette démarche.

Le site propose aux candidats des informations sur les démarches à effectuer, le financement, les conditions ainsi que les aides et des conseils en ligne pour mener à bien leur projet. En 2005, l’AFPA a délivré 3 411 titres dans le cadre de la VAE. Elle a pour objectif de fournir 70 000 prestations de VAE pour l’année à venir.
Service informatique : 2006 a été sympathique

N873830185.jpg
Jean Mounet
Lors des vœux de début d’année, le président du Syntec Informatique, Jean Mounet, s’est félicité de l’année 2006 qu’il a qualifiée de « sympathique ». Il prévoit une croissance d’environ trois fois le PIB français. Les chiffres seront officialisés au début du mois d’avril, lors d’une conférence de presse portant sur le bilan de l’année 2006.
Sur le front de l’emploi, Jean Mounet a confirmé les chiffres de 40 000 à 50 000 créations d’emplois brutes dans le secteur informatique et de 10 000 créations d’emplois nettes. Il a relevé d’ores et déjà des tensions sur les salaires dans certains secteurs et une augmentation relative du prix des prestations de services. Il a ensuite tracé les objectifs et axes d’actions du Syntec Informatique pour 2007. L’année à venir sera marquée par le développement des coopérations internationales au niveau européen. En cette année électorale, le président du Syntec Informatique a aussi le projet d’une lettre ouverte aux candidats qui ne se sont pas encore exprimés sur le sujet, alors que l’utilisation des NTIC contribue chaque année, peu ou prou, à un point de croissance.
Jean Mounet a par ailleurs demandé que l’État donne l’exemple dans le domaine, en particulier dans des secteurs où cela semble nécessaire, comme la santé ou le social. Il a rappelé aussi le rôle prépondérant que l’État doit jouer dans les infrastructures, surtout dans les usages du haut débit et de la fibre optique. Il a ensuite résumé son propos par la demande d’une véritable politique industrielle dans les NTIC, à l’instar de ce que d’autres pays comme la Japon ou les pays scandinaves ont mis en place. Le président a aussi indiqué les priorités que représentent la formation, l’attractivité du secteur et le soutien aux PME innovantes. Il a ajouté à ces priorités la mise en exergue de « domaines de rupture » comme l’informatique embarquée où les éditeurs et sociétés de services françaises du secteur peuvent prendre des positions importantes sur le marché. Une étude sur le sujet est en cours avec une première restitution lors d’une journée qui se tiendra courant mars, « les premières assises de l’embarqué ». Le RNTL, la DGE, PAC et IDC sont parties prenantes de cette étude.
Livres
Réduire
Tout sur l'administration Postgre
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés


PostgreSQL.jpg
Si vous effectuez une recherche sur amazon.fr, vous constaterez qu’il s’agit de l’unique ouvrage traitant de la version 8.1 de PostgreSQL qui est le « système de base de données OpenSource le plus sophistiqué du monde ». Soulignons aussi au passage que son auteur est membre de l’Association loi 1901 PostgreSQLFr.
Si vous ne connaissez pas ce moteur de base de données, ce manuel a été rédigé pour vous, car il se destine avant tout aux débutants, même s’il couvre aussi quelques aspects avancés. Vous pourriez d’abord vous poser la question des limites de l’outil. Disons que si vous vous contentez de construire des tables au maximum de 64 tera-octets, PostgreSQL devrait vous convenir. (...) Avec ce moteur de base de données, vous pourrez utiliser des transactions, des procédures et des fonctions stockées, des triggers, des sous-requêtes, etc. PostgreSQL est distribué sous licence BSD : vous pouvez l’utiliser et le diffuser sans rétribution dans le cadre d’une utilisation commerciale ou non.
L’auteur nous explique d’abord comment l’installer, à partir des sources ou directement à partir des packages/binaires, sous Windows ou Linux (Debian 3.1 (Sarge) et 4.0 (Etch) sont ici privilégiés). Vous apprendrez comment démarrer/arrêter le serveur et comment l’administrer à l’aide d’outils clients comme psql, pgAdmin ou phpPgAdmin. Sébastien Lardière nous entraîne ensuite dans les arcanes du langage SQL, décrivant opérateurs et fonctions de manière à pouvoir écrire des procédures stockées (PL/pgsql, PL/PHP et PL/Java sont passés en revue).
Nous avons particulièrement apprécié les aspects avancés abordés, tels que la construction d’un cluster et son administration (les commandes VACUUM, ANALYZE, CLUSTER et REINDEX, ainsi que pgbench et pgFouine), mais aussi le domaine de la réplication avec Slony. Nous regrettons d’ailleurs que cette dernière partie soit si courte, elle aurait mérité de plus amples explications.
Nous vous recommandons cet ouvrage qui représente une vraie mine d’informations pour un administrateur PostgreSQL francophone.

PostgreSQL 8.1 : Administration et exploitation d’une base de données

• Auteur :
Sébastien Lardière

• Éditeur :
ENI, Collection : RESSOURCES INFO
ISBN : 2-74603468-9
260 pages, 27 euros environ

Eyrolles révise ses classiques Java


11994.jpg

11989.jpg
L’éditeur d’ouvrages spécialisés dans les nouvelles technologies saisit l’opportunité de la sortie du Java 5 pour actualiser plusieurs de ses ouvrages de référence sur le langage Java. Le premier ouvrage présenté, celui d’Anne Tasso, est un classique pour les étudiants en écoles d’ingénieurs. Cette 4e édition s’enrichit des dernières nouveautés dans Java, Eclipse et Tomcat. Elle est destinée à tous ceux qui souhaitent se lancer sérieusement dans la programmation Java avec exemples, exercices et le code source de tous les programmes dans le CD inclus dans l’ouvrage. Par ailleurs, l’ouvrage se structure autour d’un projet spécifique de gestion de comptes bancaires pour ceux qui seraient intéressés par des applications plus professionnelles.
Cet ouvrage pour débutants ou autodidactes trouvera son complément avec la deuxième édition du livre de Claude Delannoy. Celui-ci prend également en compte les nouveautés de la version 5 de Java. Sous formes d’exercices classés par thèmes, il couvre tous les aspects fondamentaux de Java. L’ouvrage s’adresse cependant à des lecteurs déjà initiés au langage Java. Il est à noter que le code source des exercices est disponible en ligne sur le site de l’éditeur.

Le livre de Java, premier langage

• Auteur : Anne Tasso

• Éditeur : Eyrolles
ISBN : 2-212-11994-1
471 pages, 1 CD, 30 euros environ

Exercices en Java

• Auteur : Claude Delannoy

• Éditeur : Eyrolles
ISBN : 2-212-11989-5
313 pages, 20 euros environ
Imagine Cup 2007
Réduire
En partenariat avec L’Informaticien
IMAGINE CUP : destination Corée !
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Après une édition 2006 où les Français se sont largement distingués avec des titres et des accessits, le concours de développement de Microsoft est prêt pour une nouvelle édition. Thème central renouvelé, nouvelles catégories… tout est là pour en faire une édition
encore plus riche que la précédente !

korea07.jpg
Après l’Inde, qui a accueilli la finale de la dernière édition, c’est désormais la Corée du sud qui est en ligne de mire pour les participants de l’Imagine Cup 2007. Si dans ses grandes lignes le principe du concours ne change pas, quelques nouveautés viennent agrémenter la compétition.

Tout d’abord, le thème de cette année pour la catégorie Software Design, la compétition reine de l’épreuve, est l’éducation. Les concepteurs d’applications devront réfléchir à « imaginer un monde où les technologies permettent une meilleure éducation pour tous ». Ce thème se déclinera dans les différentes compétitions du concours.


La règle de trois

La compétition tournera autour de trois catégories principales, regroupant trois compétitions.

La première catégorie porte sur les « solutions technologiques » : la conception logicielle, les systèmes embarqués et le développement Web.
La conception de logiciel se fera en rapport avec le thème de l’année. Les participants devront réaliser le prototype d’une application éducative. L’idée est analogue dans la catégorie « systèmes embarqués » pour construire une application matérielle et logicielle complète en utilisant Windows CE et le matériel fourni.
« Développement Web » demandera aux participants de créer des sites d’enseignements innovants en s’appuyant sur les technologies ASP.Net.
La deuxième catégorie est plus classique et regroupe les « défis de compétences » avec la compétition patronnée par la France, « Project Hoshimi », la conception d’un réseau applicable en entreprise et une épreuve d’utilisation d’algorithmes adéquats dans des situations précises.

La dernière catégorie regroupe les « arts numériques » : photographie, court métrage et interface designer. Cette dernière compétition est nouvelle et demandera aux participants de réaliser une interface innovante associée au thème de l’année. Les nouveaux outils Expression de Microsoft devraient y trouver une place importante.


Une ouverture plus large

La plus grande nouveauté de 2007 est de s’ouvrir aux non-développeurs dans certaines catégories, par exemple le Projet Hoshimi. Là encore, la compétition se déroulera sur trois niveaux différents. La catégorie « découverte » permettra aux participants de découvrir les bases du développement et de mettre au point leurs premières stratégies sans même écrire une ligne de code. Ils ne pourront cependant pas accéder aux phases finales. La catégorie « intermédiaire » autorisera de vraiment entrer dans les principes du jeu et de développer des stratégies complexes toujours sans avoir à écrire une ligne de code. Les outils fournis pour ce niveau comportent près de 90 % des fonctions fournies au niveau ultime, la catégorie « expert ».

Avec ces deux nouvelles catégories, le concours a voulu se doter de nouveaux apports pédagogiques en permettant aux débutants de découvrir les principaux concepts du développement objet sans l’aspect rébarbatif de l’écriture du code.
De plus, dans Projet Hoshimi l’aspect stratégique est le plus important. Il est donc possible d’avoir au niveau intermédiaire des stratégies qui rivalisent avec certaines du niveau expert.
Comme chaque année, l’obtention des kits et les inscriptions se réalisent en ligne sur le site www.imaginecup.fr ou sur le site dédié au projet Hoshimi, www.project-hoshimi.fr.

Vu le nombre de participants lors de la dernière édition, les délais sont encore plus resserrés pour s’inscrire et envoyer ses premiers codes. Les candidats ont jusqu’au 15 février 2007 pour entrer dans la compétition. Bonne année et bonne chance pour cette nouvelle édition de l’Imagine Cup !

ImagineCup01.jpg
De gauche à droite, Manon Gaucher et Flavien Charlon (médaillés d’Or de la catégorie Projet Hoshimi) ainsi que Laure Portet et Régis Hanol (médaillés de Bronze de la même catégorie) à l’édition 2006 de l’Imagine Cup.
Vista (2ème partie)
Réduire
LES « PLUS » DE VISTA 2e partie
Vista vous rendra-t-il plus productif ?
Par Hugo Lunardelli - Copyright L'Informaticien, tous droits réservés

wallpaper1proper.jpg
Après un premier volet consacré à l’impact de Vista sur la productivité de l’utilisateur (lire L’Informaticien n° 41), cette deuxième partie tentera de répondre à la question en se plaçant du point de vue du responsable informatique en charge de la mise en œuvre de Vista sur les postes de travail et du support des utilisateurs.

I. Installation et déploiement de Vista

Nous traiterons ici de l’installation ponctuelle du système sur des machines isolées, avant d’aborder les outils développés par Microsoft pour faciliter le déploiement de Vista sur un parc de machines. Dans le premier cas de figure, j’ai testé Vista en l’installant sur deux machines. Un premier PC de bureau Fujitsu Siemens de milieu de gamme : trois ans d’âge, Pentium 4 cadencé à 3 GHz, avec 1 Go de Ram, deux disques SATA et une carte ATI Radeon 9200. Une deuxième machine consistant en un portable Centrino Acer, âgé d’un an : Pentium M740, 1 Go de Ram, disque de 80 Go et carte ATI Mobility Radeon X700.


L’assistant de mise à jour

Avant l’installation de Vista sur le PC fixe, j’ai lancé de Windows XP l’utilitaire « Vista Upgrade Advisor » destiné à vérifier la compatibilité des composants de la machine à installer. On le trouve à cette adresse :
http://www.microsoft.com/windowsvista/getready/upgradeadvisor/default.mspx

Cet assistant a rendu un verdict détaillé et m’a informé que ma machine était bonne pour le service en suggérant d’installer l’édition « Vista Business » compte tenu de l’absence d’une carte graphique performante. Le rapport de l’assistant dresse un inventaire des périphériques supportés par Vista, de ceux sur lesquels Microsoft ne dispose pas d’informations et de ceux pour lesquels un driver est disponible sur le site Microsoft après installation (en fait la seule carte son  Realtek). Quelques incohérences malgré tout : mon imprimante Epson CX 3200 figurait dans les deux premières catégories à la fois – supportée mais sans information.
L’utilitaire « Vista Upgrade Advisor » m’informe logiquement que ma carte ATI Radeon 9200 n’est pas en mesure de tirer parti de l’interface 3D Aero.
Plus inquiétant en revanche, aucune information sur le support de mon modem USB Wi-Fi de marque SMC, sans lequel pas de connexion possible sur mon routeur, et donc pas d’Internet. Je me mets en quête d’informations concernant le support de Vista sur le site de SMC : rien ! J’appelle le support technique, ils m’envoient un driver XP et m’informent que Vista n’étant pas encore disponible, ils ne disposent pas de drivers…


Examen de la configuration logicielle

Enfin, sur un plan logiciel, l’utilitaire m’informe que certains programmes installés ne seront soit pas compatibles avec Vista, soit pourront faire l’objet de dysfonctionnements.
Dans la première catégorie figurent notamment Norton Ghost 9.0 de Symantec et Nero 6. Dans la deuxième, on trouve Norton antivirus, Active Sync, MSN Explorer et enfin mon runtime Java de Sun.
Pour terminer, l’utilitaire me propose d’imprimer une synthèse de ces observations, en distinguant les tâches à accomplir avant l’installation de celles après l’installation.
Je démarre l’installation de Vista à partir de Windows XP en précisant où installer le nouveau système, en spécifiant donc que je ne souhaite pas une mise à jour de façon à conserver la possibilité de booter sous XP.
 L’installation se passe sans problème et je me retrouve au bout de 50 minutes avec une machine Vista prête à fonctionner, quoique dépourvue de son et surtout de connexion Internet. Je tente alors d’installer l’utilitaire SMC d’installation du driver XP et après quelques tâtonnements quant à la façon de configurer le Wi-Fi sous Vista, la liaison est établie avec mon routeur et fonctionne normalement.


Les outils de compatibilité applicative

Je me trouve maintenant confronté à l’installation de mon imprimante multifonction Epson pour laquelle Vista ne fournit pas de driver. Là encore, pas de drivers – même en bêta – sur le site du constructeur. Je télécharge les utilitaires XP d’installation des drivers de l’imprimante et du scanneur. Si le driver d’impression veut bien s’installer sous Vista, ce n’est pas le cas du scanneur.
J’essaye alors d’utiliser l’option « compatibilité » qui se trouve dans un onglet de la fenêtre propriétés du programme d’installation. Je choisis d’émuler le mode Windows XP SP2 et je parviens cette fois-ci à installer le driver et à scanner normalement de Vista en utilisant le « Windows fax and scan » de Vista.
Maintenant que ma connexion Internet est opérationnelle, je peux télécharger le driver de ma carte son, ainsi que tous les utilitaires nécessaires pour pouvoir travailler dans de bonnes conditions (Adobe Acrobat Reader, Messenger, Live Favoris…).


L’indice de performance

Figure1.jpg
Affichage du score de performance et interface Vista Basic.

Une fois l’installation terminée et l’utilisateur connecté, Vista affiche un « Welcome Center » qui comprend un ensemble d’informations et de liens de téléchargement optionnels. En cliquant sur le lien « View Computer Details », on arrive sur une page indiquant l’indice de performance de la machine sous Vista.
Cet indice est une note basée sur la performance de cinq indicateurs: processeur, vitesse de la mémoire, performance graphique pour la bureautique, le 3D et les jeux et enfin performance du disque. Il n’y a pas de pondération d’ensemble et la note globale affichée est celle du plus faible des composants. Ce qui me vaut, dans le cas de mon PC fixe, d’avoir une note de 1 : la plus faible qui soit…
Ma machine mérite-t-elle ce déshonneur ? Sans doute pas. À l’usage, la performance du système, quoique forcément subjective, est du même ordre que sous XP. Le système semble mieux répondre et être donc moins sujet à des blocages dus à un processus accaparant l’ensemble des ressources du système. D’un autre côté, cette nouvelle installation est aussi beaucoup moins chargée que la partition sous Windows XP, encombrée par une myriade d’outils installés au cours d’années d’utilisation et qui ralentissent forcément la machine.

L’installation de Vista sur mon portable s’est faite de façon beaucoup plus rapide. Deux fois plus rapide (dans les vingt minutes), la configuration a été d’entrée complètement reconnue et supportée, à l’exception ici encore de la carte son. Il ne m’a fallu que deux clics pour installer le driver correspondant et finaliser l’installation. Le seul périphérique non supporté étant le lecteur de cartes photos (« mass storage ») qu’il a fallu aller chercher sur le site d’Acer.

Indice de performance : 3,6 ce qui correspond à la note du processeur (Intel Pentium M cadencé à 1,73 GHz).


Windows Easy Transfer
Il est bien sûr possible de mettre à jour une machine XP vers Vista, mais le processus sera non seulement beaucoup plus long et le résultat risque de surcroît d’être moins satisfaisant que si vous procédiez à une nouvelle installation. De façon à faciliter ce dernier scénario, Microsoft propose un assistant, nommé « Windows Easy Transfer », permettant de sauvegarder tous vos paramètres (comptes utilisateur, fichiers, e-mails, paramètres système, photos…) sur un média amovible, un lecteur réseau, en vue de leur restauration ultérieure sur Vista. Cet outil sera également utilisé pour transférer vos données d’une machine XP vers une nouvelle machine Vista. http://www.microsoft.com/windowsvista/features/forhome/easytransfer.mspx




Déploiement de Vista en entreprise

De façon à lever le plus grand nombre de barrières potentielles à l’adoption de Vista, Microsoft a apporté un soin particulier à faire en sorte que la migration d’un parc soit la plus simple possible. De nouveaux outils ont fait leur apparition et les technologies sous jacentes ont considérablement évolué, notamment en ce qui concerne la création et la gestion des images système.

WIM (Windows Imaging Format)

WIM représente le nouveau format d’image disque développé par Microsoft et introduit avec Vista.
Le format WIM utilise un fichier pour le stockage des images système, contrairement à d’autres solutions qui sont basées sur l’utilisation de secteurs disque. En conséquence, ce format est non seulement extensible mais également indépendant du hardware sous jacent.
On pourra utiliser WIM pour stocker plusieurs images disque dans un fichier unique, à l’instar de Microsoft qui utilise WIM dans le DVD de Vista pour stocker l’ensemble des éditions (home, business, premium, ultimate…). À noter que les fichiers communs à plusieurs images système ne sont stockés qu’une seule fois dans un fichier WIM, limitant ainsi l’espace disque nécessaire.
Du fait de l’indépendance de WIM vis-à-vis du hardware, il ne sera plus nécessaire de stocker autant d’images disque que de types de machines déployées dans l’entreprise. Un seul fichier sera nécessaire dans la plupart des cas. Moins d’images disque à gérer simplifiera l’administration et réduira donc les coûts de déploiement et de maintenance des PC installés.
Contrairement à XP, il est possible de modifier une image WIM sans avoir à la recréer complètement, pour ajouter un driver ou un service pack par exemple.
WIM se prête au déploiement « non destructif », ce qui signifie que l’on pourra avec ce format installer Vista sans nécessairement écraser le contenu existant du disque cible, ce qui en retour permettra de récupérer les paramètres utilisateurs pour les restaurer une fois Vista installé.

Modularisation de Vista

WIM tire parti de la modularisation de Vista qui permet de choisir les composants que l’on souhaite ou non déployer. On pourra par exemple choisir de ne pas sélectionner le media player dans la phase de création de l’image d’une machine type. Sont considérés comme composants de l’image les drivers, les mises à jour de sécurité et les services packs.
Une option intéressante pour les entreprises hébergeant des employés travaillant dans différentes langues consiste dans le Multi-lingual User Interface (MUI) pack. Disponible uniquement pour les éditions Vista Enterprise et Vista Ultimate, ce pack permet de n’avoir qu’une seule image à déployer pour les 36 langues supportées.

Compatibilité des applications

En préalable au déploiement d’un nouvel OS, il est nécessaire de vérifier la compatibilité des applications installées.
Microsoft met à la disposition des entreprises un ensemble d’outils destinés à inventorier et tester la compatibilité des applications avec Vista. Appelé ACT version 5 (Applications Compatibility Toolkit), ce kit comprend en premier lieu un logiciel client destiné à remonter la liste des applications installées sur chaque poste du réseau. Ce recensement a pour finalité d’alimenter une base de données qui fera l’objet d’une analyse en confrontant les résultats collectés avec la base de compatibilité développée et mise en ligne par Microsoft.
On connaîtra ainsi pour chaque application son degré de compatibilité et notamment la capacité d’un programme à s’exécuter en mode utilisateur de façon à respecter le modèle de sécurité préconisé pour Vista.
Au cas où une application Windows poserait problème à ce sujet, et notamment qu’elle nécessite un accès complet au registre et au système de fichiers, Vista intègre une fonctionnalité permettant de rediriger les appels système vers une configuration virtuelle permettant ainsi au programme de s’exécuter.
Avec Vista business, il est également possible de s’appuyer sur Virtual PC 2007 pour faire tourner une application incompatible dans une machine virtuelle qui exécutera Windows XP, Windows 2000, voire Windows NT.

Migration des paramètres utilisateurs

La migration de ces paramètres (données utilisateurs, paramètres du bureau et des applications) est facilitée par la mise à disposition de deux outils. Windows Easy Transfer, mentionné plus haut, sera employé dans le cas où la migration concerne un nombre limité de postes, USMT 3.0 (User State Migration Tools) dans le cas contraire.
Windows Easy Transfer est destiné à être utilisé manuellement pour sauvegarder les paramètres d’un poste sur un média amovible ou une ressource réseau avant de restaurer ces données sur le poste Vista une fois le système installé. USMT automatise ces étapes et les complète par le biais de scripts basés sur le XML qui permettent de définir précisément les comptes et les paramètres à faire migrer.

ImageX

ImageX est l’outil en mode ligne de commande permettant la création, la modification et l’application d’une image système. Il permet de monter une image WIM qui sera vue comme un dossier de fichiers.

Windows Image System Manager

Figure2.jpg
Paramétrage du mode de compatibilité voulu pour l’exécution d’une application.
Cet outil graphique a pour objet d’éditer les images système créées via ImageX pour y ajouter services packs ou modules linguistiques. Il est également utilisé pour créer et éditer les fichiers XML d’installation automatique (unattended).

Automated Installation Kit (AIK)

Ce kit téléchargeable gratuitement sur le site de Microsoft comprend notamment ImageX, Windows Image System Manager, l’environnement Windows PE 2.0 (preinstallation environment) utilisé lors de l’installation de Vista et un ensemble de documentations relatives au déploiement de Vista.

Création de l’image

Une fois installés les différents outils d’AIK, on utilisera le DVD Vista pour sélectionner les composants système que l’on souhaite installer au moyen d’ImageX. On y ajoutera les drivers, patchs éventuels et les modules linguistiques. On utilisera Windows System Image Manager pour créer et éditer les fichiers XML permettant de réaliser une installation sans intervention et on sauvegardera l’image résultante. Cette image sera ensuite installée sur la machine cible de l’entreprise. On ajoute à cette machine les applications souhaitées, les patchs qui ne concernent pas le système et les drivers voulus. On capture ensuite cette configuration dans un fichier WIM avant de le compresser. On ajoute, le cas échéant, des fichiers ou images supplémentaires et on copie le tout sur un DVD ou un partage réseau.


Scénarios de déploiement

Trois scénarios sont supportés : Installation de Vista sur une nouvelle machine, mise à jour d’un PC, déploiement automatisé de machine à machine.

• Dans le premier cas de figure, on pourra démarrer l’installation en bootant à partir du réseau grâce au support de PXE. L’installation se déroulera automatiquement à l’exception de quelques questions destinées à personnaliser la procédure (langue, fuseau horaire et identifiants de l’utilisateur).

• Pour la mise à jour, celle-ci pourra se faire en démarrant d’un DVD contenant l’image système. Le processus se déroulera automatiquement sans intervention de l’utilisateur. Les paramètres existants seront transférés sur un disque du réseau, le disque sera formaté avant l’installation de Vista qui sera complétée par l’application des paramètres de l’utilisateur précédemment sauvegardés.

• Enfin, dans le cas de mise à jour impliquant un grand nombre de stations, il sera fait appel à Windows Deployment Services qui succède à RIS (Remote Installation Services) en apportant notamment le support des images WIM. Le processus se déroulera de façon complètement automatisée, sans intervention manuelle requise.

II. Performance de Vista

Vista intègre un grand nombre de nouveautés destinées à améliorer la performance du système.

Windows ReadyDrive

Il s’agit d’une technologie de disque hybride basée sur une combinaison de stockage magnétique classique avec une mémoire Flash non volatile (1 Gb, ou plus). En utilisant la mémoire flash comme cache du système, Microsoft escompte un niveau de performance plus important, l’allongement de la durée de vie de la batterie (ce qui n’est pas un luxe avec Vista…) et enfin une plus grande robustesse du système.
En s’appuyant sur les données stockées dans la mémoire cache, Vista devrait sortir de veille – ou d’hibernation – plus rapidement. La lecture et l’écriture de données sur une mémoire Flash consomme moins d’énergie et allonge la durée de vie de la batterie et enfin, la moindre sollicitation du disque dur devrait se traduire par une longévité accrue des portables. Non disponibles actuellement, les premières machines à implémenter ReadyDrive en provenance de Samsung et d’autres constructeurs devraient arriver au début 2007. À noter que si Vista supporte nativement ReadyDrive, il n’en est pas de même de Windows XP, ce qui impliquera l’installation d’un driver dans ce cas de figure.

ReadyBoost

Le principe de ReadyBoost est d’utiliser l’espace mémoire disponible sur une clé USB pour augmenter la mémoire vive d’une machine. Bien que disposant d’un portable assez récent et d’une clé de 1 Gb, je n’ai pas été en mesure de tester cette fonctionnalité, Vista m’avisant que ma clé était insérée dans une « unsupported interface ». Cette fonctionnalité devrait permettre à des portables à la mémoire sous dimensionnée d’atteindre un niveau de performance décent.

SuperFetch

SuperFetch est un composant de Vista qui examine la manière dont une machine est utilisée de façon à mettre en Ram les applications les plus fréquemment lancées. SuperFetch donne également la priorité aux applications par rapport aux tâches de fond, ce qui devrait permettre de garantir une meilleure réponse du système, même en cas de défragmentation du disque par exemple.

Defragmentation automatique

En parlant de défragmentation celle-ci est mise en œuvre de automatiquement, le seul paramétrage consistant à définir le jour et l’heure désirés pour cette optimisation.
Vista introduit une nouvelle fonctionnalité appelée « Veille avancée » qui se situe à mi-chemin entre le mode veille de XP et l’hibernation. Le mode veille avancée écrit le contenu de la mémoire vive sur le disque et permet le retour du PC à un état fonctionnel dans les deux à trois secondes après avoir pressé le bouton correspondant. Dans le cas d’un portable, une fois ce mode activé et si la batterie se décharge trop, la machine passera automatiquement en mode hibernation.
Contrairement aux versions précédentes de Windows, Vista ne nécessite pas de changement majeur dans une configuration fonctionnelle sous XP (à l’exception de la carte graphique). À configuration identique, Vista fournira grosso modo un niveau de performance comparable à celui de Windows XP, l’interface et les fonctionnalités propres à Vista en plus. Vista ne fait pas l’objet d’une optimisation particulière pour exploiter les processeurs Intel Core Duo et la version 64 bits ne semble pas apporter de gains de performance visibles par rapport à la version 32 bits. Il faudra attendre encore quelques mois pour voir arriver les premières machines optimisées pour Vista implémentant les caractéristiques ci-dessus.


Le matériel requis
Vista devrait s’exécuter raisonnablement sur toute machine supportant Windows XP. Les caractéristiques matérielles requises sont du même ordre, à l’exception de la carte graphique qui devra supporter WDDM (Windows Vista Display Driver Model) pour utiliser l’interface Aero. À l’expérience, une utilisation confortable de Vista nécessite toutefois 2 Go de Ram, surtout quand on utilise IE 7, pour ouvrir régulièrement un grand nombre de sites simultanément. Après l’installation de la version finale, j’ai pu constater que Vista consommait un peu moins de 500 Mo de Ram, sans aucune application chargée ni utilitaire installé. Dans ces conditions, installer Vista sur une machine qui ne serait dotée que de 512 Mo risquerait de se traduire par des performances médiocres…



Real Madrid
Réduire
REAL MADRID
Tous les flux glissent au fond du filet IP
Par Olivier Bouzereau - Copyright L'Informaticien, tous droits réservés

Le Club de foot de Madrid combine données, téléphonie et vidéo sur une infrastructure IP convergente. Du coup, il peut extraire de nouveaux revenus et parer aux débordements éventuels des supporters.

real2.jpg
L’antre de Santiago-Bernabéu, la stade mythique des « galactiques ».
Situé en plein cœur de Madrid, le stade Santiago-Bernabéu fait partie intégrante de la vie madrilène depuis 1902. On s’y rend en famille pour assister aux rencontres du prestigieux Real de Madrid, fréquemment opposé aux plus grands clubs internationaux. Malheureusement, tous les fans ne se contentent pas d’une assiette de tapas et de quelques sodas pour faire la fête. Le club doit donc surveiller quelques groupes de casseurs enivrés, dès leur arrivée à la gare ou à l’aéroport.
Une infrastructure réseau convergente facilite cette surveillance. Elle permet plusieurs automatismes, génère de nouveaux services et facilite la tâche des employés du club, les jours de match. Outre les informations et statistiques en temps réel délivrées sur écran géant, les interfaces vers les réseaux Tetra et vers le réseau mobile UMTS donnent l’alerte puis, le cas échéant, aident à coordonner les secours nécessaires.
Les accès au stade du Real de Madrid s’effectuent via 256 tourniquets connectés en IP. Caméras de surveillance, haut-parleurs et issues de secours sont maintenant pilotés par huit employés qui supervisent les déplacements de quelque 80 000 supporters à partir du centre de commande placé tout en haut des tribunes. Cette petite équipe scrute attentivement les mouvements de foule en fin de match. En pilotant les portes d’accès, elle peut rapidement orienter les groupes de supporters vers les voies d’accès libres et éviter les confrontations les plus musclées.
Pour que tout se déroule sans surprise ni incident, l’efficacité du système informatique est fréquemment mise à contribution : « Nous avions besoin d’une infrastructure réseau capable de nous aider à fonctionner. Il faut coordonner plusieurs systèmes, en fait, la billetterie, les accès aux tribunes, l’éclairage, la climatisation, la sonorisation… Après quatre années d’études et de visites de stades dans le monde entier, nous avons retenu la combinaison technologique offrant le meilleur résultat, sans rien réinventer », retrace Enrique Uriel, le directeur technique du club.


L’IP TV en ligne de mire
La voix et la vidéo sur IP dépassent l’enceinte du stade de Madrid pour propager leurs services jusqu’aux sites d’entraînement, ainsi qu’au village de Valdebebas (la Ciudad du Real de Madrid). Le club dispose, en outre, de sa propre chaîne TV destinée aux supporters expatriés – disponible sur le bouquet Freebox. Le Real envisage le passage à l’IPTV prochainement, pour réaliser des économies de diffusion essentiellement : « Le broadcasting d’émissions audiovisuelles par satellite coûte très cher. La chaîne du Real pourra basculer vers l’IPTV dans le courant de l’année 2007 », assure Jacobo Diez, responsable Cisco en charge du compte du Real de Madrid.
Cette mutation permettra aux supporters du monde entier de suivre les matches de leur club, via Internet. Elle exige néanmoins une infrastructure hautement disponible et la redondance de plusieurs équipements d’interconnexion. C’est pourquoi tous les éléments critiques du réseau sont en train d’être doublés.




Deux millions d’euros en location évolutive

real1.jpg
La démonstration des équipements utilisés par le Real Madrid.(Photo-Crédit: OB)

L’œil humain demeure indispensable, en particulier pour surveiller les supporters à l’entrée du stade. Mais en reliant différents systèmes d’information entre eux, l’infrastructure réseau permet d’offrir des automatismes appréciables. Par exemple, le volume sonore des haut-parleurs s’adapte au niveau de bruit ambiant. L’éclairage et les radiateurs sont régulés automatiquement, ce qui procure de substantielles économies d’énergie. Le club estime pouvoir économiser 50 % de ses coûts d’implémentation et de maintenance grâce au nouveau contrat à long terme signé avec l’équipementier Cisco.
En effet, le Real a eu recours à une location évolutive proposée par la branche Capital du fournisseur. Cette formule lui assure une évolution permanente de son infrastructure réseau, moyennant un contrat de 2 millions d’euros et une surface de visibilité pour l’équipementier.
Les dirigeants du club ont été sensibles à l’accompagnement proposé : « Nous devons redéfinir un concept de communication global pour le club, et ce dans son intégralité et pas seulement au niveau du stade. L’investissement nécessaire est colossal mais le retour sur investissement sera rapide, en partie grâce aux économies permises par le réseau voix et vidéo sur IP », prévoit Enrique Uriel.
L’intégrateur Getronics, partenaire de Cisco, a identifié sept nœuds principaux puis déployé les équipements réseaux nécessaires. L’infrastructure convergente a été bâtie autour de routeurs Catalyst (modèles 6509 et 3550) et de routeurs 7206 redondants, reliés au travers de liens 100 Mbps et 1 Gbps.
Deux coupe-feu Contivity d’origine Nortel Networks isolent le LAN Santiago-Bernabéu du réseau public en créant une zone DMZ d’accueil où résident les passerelles de messagerie et l’antispam. Les services audiovisuels et une partie du back-office retiennent d’autres liens haut débit vers l’opérateur Telefonica ainsi qu’une passerelle vers son réseau mobile UMTS.


Des retombées dans le BTP
De 1995 à janvier 2002, le Monster Park des célèbres « 49ers » de San Francisco (70 207 places) était rebaptisé 3Com Park, en hommage à l’un des plus puissants employeurs de la Silicon Valley. En 2006, le vent a tourné. Cisco et Avaya se sont disputés les communications unifiées des principales rencontres sportives internationales. Une question d’image, de sponsoring, mais aussi d’enjeux technologiques. Avaya a soutenu les épreuves de la Coupe du Monde de football d’Allemagne, avec une infrastructure reliant 12 stades, taillée pour les exigences de la vidéo haute définition et celles de la Voix sur IP. Ce réseau a supporté huit cent mille minutes d’appels téléphoniques et l’échange de 21 126 Tera-octets de données, entre le 15 mai et le 10 juillet 2006. Les efforts consentis par les équipementiers autour des stades ne sont pas de simples preuves de faisabilité. Les retombées économiques sont très importantes.
En effet, les infrastructures mises en place font souvent des petits, dans d’autres stades et campus du pays. Les promoteurs s’inspirent volontiers des solutions proposées : appliances pour systèmes de chauffage, centrales d’alarmes et éclairages connectés sans fil. Ce regain d’intérêt pour « le bâtiment intelligent » s’explique simplement ; il aide à maintenir l’immobilier à un niveau de prix très élevé.




Informations en temps réel

Le Club peut ainsi joindre ses responsables à tout moment, où qu’ils soient. L’infrastructure retenue offre une souplesse et une évolutivité importantes pour les services voix, données et vidéo. « Inutile désormais de dérouler 600 mètres de câbles pour installer un nouveau téléphone mural à l’autre bout du stade », apprécie le directeur technique.
Grâce au réseau IP convergent, le Real de Madrid relaye l’information en temps réel à la fois vers les cabines de presse et vers les supporters. Fréquemment, en cours de match, le club affiche des données statistiques sur les écrans géants du stade ou les résultats des rencontres simultanées.
De plus, les performances sportives peuvent être analysées, en détail, par les membres du club. Et ces examens deviennent possibles en tous points du réseau maintenant : « Des éléments de placement, parfois invisibles à partir du terrain, peuvent s’avérer très utiles aux joueurs. Ils sont révélés par la vidéo et commentés par l’entraîneur », explique le directeur technique. Le Real archive les enregistrements vidéo et permet la recherche parmi 4 Téra-octet de données actuellement. Au-delà du stade, les sites d’entraînement, le village de Valdebebas (la Ciudad du Real de Madrid) et 1 100 points d’accès au réseau sont proposés. Des caméras sont postées également à proximité des boutiques du stade et sur les grands axes de circulation menant à l’aéroport notamment. Depuis leur bureau comme à partir de leur PC à la maison, les dirigeants du club accèdent ainsi à 350 points de contrôle ; ils sont prêts à parer à toute éventualité. « En cas d’urgence, nous pouvons assurer l’évacuation totale du stade en moins de 10 minutes », assure Enrique Uriel.
Linux
Réduire
2007 : enfin le bureau sous Linux à la portée du grand public !
Par Noé Barat - Copyright L'Informaticien, tous droits réservés

Des distributions Linux, telles que Ubuntu et OpenSuSE, sont désormais parfaitement adaptées aux besoins bureautiques courants.

En ce qui concerne le bureau sous Linux, l’année dernière a été marquée par un événement majeur. En effet, en février 2006, Novell a frappé les esprits en effectuant une présentation publique d’un bureau comprenant de nombreux effets 3D. Et ce n’était pas un Cray qui réalisait en arrière-plan les traitements graphiques ! Partons d’un constat : le projet X a maintenant plus de vingt ans, alors que le matériel vidéo a, depuis 1984, évolué considérablement. Aujourd’hui, 90 % de la surface d’une puce vidéo est consacrée au « pipeline 3D ». La nouveauté, en 2007, est que désormais un système d’exploitation étiqueté « orienté utilisateur » exigera la présence d’un processeur graphique (GPU) pour apporter de nouvelles fonctionnalités en termes de confort d’utilisation et d’ergonomie. C’est le cas de Vista, de Mac OS X, mais aussi notamment d’Ubuntu ou d’OpenSuSE.

Et ceci explique en partie pourquoi Ubuntu et OpenSuSE ont conservé leurs positions dominantes en 2006 en tant que distributions les plus populaires. Pourtant, elles sont toutes les deux très récentes. Le projet OpenSuSE a démarré à la mi-2005, lorsque Novell décida de créer une communauté libre autour d’OpenSuSE, à l’image de Redhat envers la communauté Fedora. De même, Ubuntu a en gros deux ans d’existence. En comparaison, Slackware Linux, la première distribution Linux – 14 ans d’existence –, n’a jamais atteint un tel niveau de popularité. Pourquoi ? Son installateur non graphique est d’un autre âge, la détection du matériel est limité, le nombre de logiciels supportés est restreint… Pourtant, il n’existe rien de plus stable, ni rien de plus robuste et rapide qu’une Slackware, et il s’agit d’une des rares distributions à pouvoir s’installer sur du très vieux matériel. Il n’est pas non plus totalement faux d’affirmer que « Quand vous connaissez Slackware, vous connaissez Linux… Quand vous connaissez Red Hat, tout ce que vous connaissez c’est Red Hat. ». Le style et le design « UNIX » est très attractif pour les passionnés, souvent experts, mais pas pour les entreprises et les particuliers qui ne veulent pas passer 10 heures à configurer leur système en utilisant la ligne de commande. Mark Shuttleworth, le père créateur d’Ubuntu, le dit lui-même : « Chaque manipulation réalisée à l’aide de lignes de commande est un bug qu’il faut corriger. »
Pour peu que vous connaissiez un peu l’anglais, vous pouvez vous amuser à répondre au questionnaire en ligne à l’adresse http://www.zegeniestudios.net/ldc/ pour vous aider à déterminer la distribution qui s’adapte le mieux à vos besoins. Nous avons passé ce petit test à quelques personnes ne connaissant que Windows, et le résultat est toujours identique : Ubuntu et OpenSuSE arrivent en tête des recommandations. Et c’est logique : après tout, la majorité des gens ne savent pas ce qu’est réellement un système d’exploitation. Lorsque vous achetez une voiture, on ne vous demandera pas de connaître le fonctionnement interne de son moteur. Ubuntu et Open SuSE sont des distributions intuitives et simples à utiliser. Elles n’approchent pas encore la convivialité du Mac (« On branche, ça fonctionne »), mais elles ont un avantage sur celui-ci : elles peuvent s’installer sur n’importe quel PC, Mac y compris.


Témoignage d’Elyopsis, utilisateur Ubuntu, 22 ans, étudiant en BTS Informatique de Gestion
« J’ai besoin – et envie – d’utiliser l’ordinateur pour des tâches courantes (surf sur l’Internet, courrier électronique, lecture de news, messagerie instantanée, bureautique, lecture de musique et vidéo, gestion des photos…), mais aussi pour quelques tâches un peu plus avancées (transfert de fichier, gestion de site Web, compression, gravure, édition photo/vidéo/musique, développement…), tout ceci sans perdre de temps ! Tout en restant sous Windows XP, je me suis progressivement mis aux logiciels libres. La transition vers Ubuntu fut facile et très agréable. »




Pourquoi adopter un desktop Linux en entreprise ?

Un desktop Linux est tout simplement plus productif. Vous n’avez plus besoin de vous préoccuper des licences, ce qui dans certaines sociétés se révèlent être un véritable casse-tête (licences par nombres de postes, d’utilisateurs, de processeurs, par forfait, par siège, etc.). Vous pouvez travailler avec des bureaux virtuels ; et ainsi disposer d’un bureau pour tout ce qui est Internet, et d’un autre dédié à la bureautique. Vous n’avez pas besoin de défragmenter votre disque dur à intervalles réguliers (car en simplifiant et contrairement à Windows, plus vous utilisez votre système et plus il sera rapide). L’installation d’un pare-feu n’est pas non plus nécessaire : vous en disposez un d’office avec iptable.

Pas besoin non plus d’installer un anti-virus car, globalement, dès lors que vous ferez régulièrement les mises à jour vous serez bien protégé. Sous Ubuntu, le système vous fera savoir que des mises à jour sont disponibles dans une « zone de notification », et il ne vous restera plus qu’à cliquer sur cette icône pour que l’intégralité de votre système soit mis à jour… Si vous désirez obtenir un logiciel sous Windows, vous devrez vous rendre sur un site de téléchargement spécialisé, ou encore acheter une boîte en magasin et conserver précieusement les CD. Sous Windows, vous devez rechercher le site, télécharger le dit logiciel, exécuter l’installateur et bien souvent redémarrer au final le PC ! C’est lourd et compliqué…

Sous Ubuntu, en cliquant sur Applications Ajouter/Enlever, vous accédez d’un seul coup à des milliers de logiciels qui seront à leur tour mis à jour automatiquement. C’est bien plus facile et rapide ! Le système de mise à jour est une sorte de « Windows Update » mais à la puissance 10 : vous mettez à jour à la fois votre système d’exploitation, mais également vos applications. En entreprise, vous pourrez aussi gérer des profils utilisateurs, installer des postes à la volée, rendre des répertoires accessibles à distance très facilement.

Avec Novell Linux Desktop, vous disposez de YaST, un outil unifié servant à la fois pour l’installation, la configuration et l’administration de l’OS. Mieux : AutoYaST fera une installation automatisée et sans surveillance dans le but de réaliser en entreprise des déploiements importants de nouvelles installations. Enfin, le système Novell ZENworks Linux Management permet aux administrateurs système de contrôler à distance, pour appliquer par exemple  des mises à jour.


Vue d’ensemble des logiciels pouvant être installés via Automatix2
• Catégorie « File Sharing » Azureus, Bittornado, DCPP (un client Direct Connect), Frostwire (un client Gnutella), aMule (un Edonkey).
• Catégorie « Internet » AMSN (client MSN qui gère aussi les webcams), Checkgmail (applet de gnome gmail), gFTP (client FTP), Gaim 2.0, Gizmo (un équivalent libre de Skype), GoogleEarth, NDISWrapper (pour vous permettre d’utiliser votre pilote Wi-Fi Windows, au cas où celui-ci n’a pas été détecté nativement par Ubuntu), Network Manager (qui vous permet de basculer automatiquement d’un réseau à l’autre), Opéra (le navigateur), Sun JAVA 1.5 JRE, Skype, Swiftfox et Swiftfox Plugins (une version optimisée pour votre processeur de Firefox), Thunderbird et Xchat (chat IRC).
• Catégorie « Divers » Extra Fonts (installation des polices Microsoft), Gdesklets (ajoute des informations sur votre bureau : un calendrier, la météo, etc.), Nvidia Driver (les pilotes officiels pour les cartes graphique nVIDIA).
• Catégorie « Multimédia » AUD-DVD Codecs (codec de lecture des DVD cryptés ainsi que le MP3), Avidemux (montage vidéo), DVD Ripper (rippe de DVD), Democracy Player (lecteur de flux vidéo TV), Flash Player (lecteur flash pour Firefox), Google Picasa (édition de photos en ligne de Google), Mplayer (le lecteur Mplayer et son plugin Firefox), Media Players (lecteurs vidéo tels que VLC et Beep Media Player), Multimedia Codecs (les codecs divX et compagnie), Multimedia Editing (logiciels d’édition audio (dont Audacity) et vidéo (dont Kino), RealPlayer (le lecteur du même nom), Ripper and Tuner (recherche (Streamtuner) et enregistrement (Streamripper) de radios diffusées sur Internet), lecteur Acrobat Reader et son plugin pour Firefox, GnuCash (gestion d’argent mais préférez lui Grisbi qui permet de gérer une comptabilité conforme au système français), OpenOffice Clipart.
• Catégorie Utilitaires Archiving Tools (crée et décompresse les formats RAR, ACE et 7Zip), Backup and Restore (des outils de sauvegarde et de restauration), Beagle (un moteur de recherche en local), Boot-Up Manager (pour lister les services lancés au démarrage), Ctrl-Alt-Del (un outil original qui ouvre le Moniteur système à l’appui de ces touches), Gnome Security Suite (l’antivirus ClamAV) ainsi qu’un outil de configuration graphique du pare-feu (FireStarter), GnomeBaker (logiciel de gravure), Liferea (lecteur RSS), Programming Tools (comprenant l’IDE C/C++ Anjuta), SUN JAVA 1.5 SDK, VMWare Player et Wine.




Votre bureau sous Linux opérationnel de suite

CaptureAutomatix2.jpg
Automatix a pour objectif de mettre en place automatiquement un bureau opérationnel pour l’utilisateur débutant.
L’utilisateur lambda ne voudra pas installer « à la main » chacun des logiciels qu’il désire utiliser. Bref, inutile d’imaginer un bureau sous Linux pour tous si l’utilisateur doit jongler avec la ligne de commande et les extensions « .tar.bz2 », « .tgz » ou encore « .tar.gz ». C’est pourquoi les gestionnaires de paquets existent. Mais pour le grand public cela ne suffit pas. En effet, beaucoup d’utilisateurs en provenance directe du monde Windows ne désirent pas chipoter et souhaitent bénéficier dès le départ d’un lecteur flash et de java. Ils veulent pouvoir lire d’emblée des DVD,  écouter des MP3, ou encore utiliser Skype et Google Earth. Or, en raison de l’utilisation notamment de codecs non libres, ces fonctionnalités ne sont pas présentes après l’installation. Il existe cependant des solutions, comme Automatix, qui permettent de finaliser le système en installant automatiquement une grande variété de codecs, plugins et logiciels.

Pour en bénéficier sous Ubuntu Edgy, vous devez ajouter la ligne « deb http://www.getautomatix.com/apt edgy main » comme nouvelle source de mises à jour à la suite du fichier « /etc/apt/sources.list ». Ensuite, vous devez récupérer une clé GPG qui certifiera le dépôt d’Automatix (pour être certain de télécharger les paquets officiels non trafiqués). Pour ce faire, il suffit de taper [Alt] + [F2] et d’encoder la chaîne « wget http://www.getautomatix.com/apt/key.gpg.asc -O - | sudo apt-key add - ».

Ceci fait, vous devez installer le logiciel Automatix lui-même : Système d’Administration ? Gestionnaire de paquets Synaptic, recherchez automatix2. Le logiciel installé, vous devrez encore le lancer (Applications ? Outils Systèmes ? Automatix). Un avertissement s’affichera vous mettant en garde concernant l’illégalité aux États-Unis de télécharger un codec permettant de lire un DVD protégé. Vous vous retrouvez maintenant face à une fenêtre à partir de laquelle vous pourrez cocher tout ce qui est nécessaire pour « pouvoir être opérationnel de suite ». Cochez ensuite ce que vous jugez utile puis cliquer sur « Start », et le tout s’installera automatiquement.


flash_medium.jpg
Mandriva a lancé récemment un nouveau produit baptisé « Mandriva Flash » qui consiste en un système Mandriva Linux 2007 « bootable » sur une simple clé USB. Cette clé offre une capacité de 2 Go dont la moitié est réservée aux données de l’utilisateur. Si la carte graphique le permet vous bénificierez ainsi d’un « bureau 3D » Mandriva et de toutes une série de logiciels (dont OpenOffice.Org 2) et des greffons propriétaires tels qu’un lecteur Flash, RealAudio, MP3 et MPeg4. Son coût : 59 euros en vente directe sur le site de Mandriva (http://store.mandriva.com/ ).




Un bureau 3D est-il vraiment nécessaire ?

cube2.jpg
cubeinformaticien.jpg
Le déplacement du cube est l’effet le plus spectaculaire.
Rappelons d’abord brièvement quelques notions. À la base, nous trouvons X.org qui, dans sa version 7.1, est modulaire (le code source a été fragmenté en modules pour faciliter son développement et sa maintenance). X.org gère les interactions avec le pilote graphique mais aussi avec les périphériques. Avec 16 millions de lignes de codes, X.org réalise également des traitements complexes comme l’interrogation du bus PCI pour découvrir le matériel (carte, souris, etc.). Ce genre d’opération devrait normalement être tenue par le système d’exploitation sous-jacent. La frontière est donc relativement floue entre X.org et l’OS hôte, car X.org est portable et doit par conséquent parfois palier les manques de l’OS hôte. Ce n’est pas X.org qui dessinera vos fenêtres, mais le gestionnaire de fenêtres (WM), comme metacity sous l’environnement de bureau GNOME. En 3D, vous devez choisir un gestionnaire de fenêtre spécifique comme Berly. Les effets sont alors gérés au travers de X.org via un greffon capable d’interpréter une instruction spéciale, GLX_EXT_texture_from_pixmap, dans le but de restituer les effets 3D. AIGLX est intégré à X.org 7.1 et joue ce rôle. Vous l’utiliserez si le pilote de votre carte graphique est libre, sinon vous pourrez vous rabattre sur XGL, ou encore vous passer du greffon dans le cas de certaines cartes Nvidia (série 9625) qui sont capables d’interpréter directement l’instruction GLX_EXT_texture_from_pixmap. Bref, avec Berly, c’est l’utilisateur qui configure les effets 3D. Par exemple, à la fermeture d’une fenêtre, vous choisirez l’effet « burn » qui comme son nom l’indique consumera votre fenêtre. À tout moment, l’utilisateur peut rebasculer d’un environnement 3D vers la 2D en changeant « à chaud » son gestionnaire de fenêtres. C’est ainsi que sur notre portable nous pouvons basculer de Berly à Metacity en un clic de souris ou presque (menu Berly/Select WM). Mais quel intérêt de repasser à la 2D ? En 3D tout s’affiche plus vite (c’est le GPU de votre carte graphique et non pas le CPU de votre processeur qui réalise l’essentiel du travail), et avec un bureau 3D vous vous faites plaisir. En outre, tous les effets 3D ne peuvent être qualifiés de superficiels.
Par exemple, si en tapant ce texte sous OpenOffice nous voulons découvrir quelques notes qui figurent en arrière-plan sur notre bureau, il nous suffit d’appuyer sur la touche ALT tout en actionnant la molette (mouvement arrière) de la souris. Le texte devient transparent pour dévoiler le bureau et les notes associées (le pense-bête de Gnome) situées juste en dessous. Avec la 3D, les notions de « dessus » et « dessous » prennent d’ailleurs leur sens : si nous maintenons les touches CTRL + ALT enfoncées et cliquons sur le bouton gauche de la souris, nous pouvons visionner l’empilement des fenêtres et effectuer une rotation cubique de nos bureaux. Mine de rien, si vous avez l’habitude d’ouvrir « 36 000 » fenêtres, un bureau 3D sera bien plus productif pour vous y retrouver : vous pointez votre souris dans le coin supérieur droit et toutes vos fenêtres apparaîtront réduites et organisées sur votre plan de travail, ce qui permet de basculer facilement d’une fenêtre à l’autre.   

  D’un autre côté, certains effets ne servent pas à grand-chose sinon pour épater la galerie, ils sont d’ailleurs rangés sous la rubrique « toys » du « Berly Settings Manager », comme l’effet « Water » qui simulera la chute de gouttes d’eau s’écrasant sur votre écran. Joli, mais inutile…

Jon Smirl, un expert de X.org et l’un des développeurs de XGL, déclare à propos du bureau 3D : « Vous pouvez faire plus rapidement du traitement d’image pour des choses comme la color space conversion, des étirements rétrécissements/déformations, etc. J’ai vu du filtrage extrêmement complexe fait en temps réel avec du matériel shader qui prendrait au principal plusieurs secondes par image à faire. Cela permet aussi le support de fenêtres de profondeurs hétérogènes (des fenêtres 8, 16, 24 bits simultanées) avec des palettes de couleurs aléatoires, le flipping/rotation à la volée pour les appareils de projection, et la mise à l’échelle d’un écran entier pour les malvoyants, etc. L’indépendance de la résolution permet à des objets d’être rendus à une résolution/taille aléatoire et d’être sur/sous échantillonnés lorsqu’ils sont montrés à l’écran. »


Des outils pour aider les entreprises à intégrer des applications centrées sur Windows

Ce n’est pas parce que vous travaillez sous Ubuntu ou Open SuSE que vous ne pouvez pas exécuter des applications verticales uniquement disponibles sous Windows. Le logiciel payant CrossOver Office, qui dérive de Wine, vous permettra d’exécuter vos logiciels natifs Windows sous votre environnement Linux. En fait, ce soft recréera un environnement virtuel Windows (basé sur un environnement Windows 98 ou Windows 2000). Sous Ubuntu apparaîtra une nouvelle entrée dans le menu « Applications » qui vous permettra de configurer CrossOver. Tous vos fichiers exécutables Windows seront ainsi lancés avec Crossover. C’est simple et efficace.

Notez que, dans le domaine des jeux, il existe un autre outil commercial du nom de Cedega, dont le but est l’exécution de  jeux Windows sous Linux (avec sa propre implémentation de DirectX). Entre parenthèses, on ne peut plus affirmer aujourd’hui qu’un bureau Linux n’est pas fait – aussi – pour le jeu. Il existe en effet maintenant des dizaines de jeux de grandes qualités dans tous les domaines. Citons en quelques-uns : Legends, un FPS multi-joueurs (http://www.legendsthegame.net/), OpenArena, un Quake 3-like libre (http://cheapy.deathmask.net), OpenQuartz, un autre FPS entièrement libre (http://openquartz.sourceforge.net/), Glest, un RTS (Real Time Strategie Game) aux graphismes éblouissants (http://www.glest.org/), LiquidWar, un « wargame » multi-joueurs aux règles vraiment très originales (http://www.daimonin.net/).


Des PC Desktop Linux pré-installés


Pour rendre Linux populaire en tant que Desktop, il faudrait qu’il soit pré-installé par défaut sur les machines fournies en magasin. En France, il existe bien quelques initiatives, notamment de HP en partenariat avec Mandriva, mais celles-ci restent anecdotiques. Nous vivons dans des pays où il est pratiquement impossible d’acheter des ordinateurs sans verser sa dîme à Microsoft (*).
 
Le Desktop Linux ne se banalisera que le jour où les magasins le proposeront préinstallé à grande échelle. Pourtant, dans certains pays, comme en Argentine, les ordinateurs sous Linux sont accessibles en grande surface (http://www.pps.jussieu.fr/~dicosmo/Columns/
LPT/
)... alors pourquoi pas chez nous ?


(*) Si vous surfez à l’adresse http://www.microsoft.com/france/logicieloriginal/reconnaitre/licence.mspx, vous pourrez y lire que même Microsoft trouve normal d’être remboursé en cas de désaccord au sujet du Contrat de Licence Utilisateur Final (CLUF). « Si vous êtes en désaccord avec les termes de ce contrat, vous devez retourner le produit logiciel à l’endroit où vous vous l’êtes procuré afin d’en obtenir le remboursement intégral. » Pour de plus amples informations surfez à l’adresse http://www.aful.org/wikis/detaxe/PageAccueil.
Linux (suite)
Réduire
Linux/Windows : quelle différence ?
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

L’Informaticien s’est livré à une petite expérience. Il a confié à un journaliste – votre serviteur – un portable dernier cri… avec la dernière mouture de Sled 10. Pour pimenter la chose, il fallait qu’il ne soit pas spécialiste du monde Linux pour voir s’il allait parvenir à se « dépatouiller » tout seul, comme un utilisateur lambda à qui l’on aurait demandé de passer soudain sur un poste Linux. Bilan de quelques jours d’utilisation.

Après des années tantôt sur Mac et sous Windows, il me manquait d’avoir travaillé sur un poste Linux. Les conditions étaient simples : devenir un utilisateur quelconque d’entreprise avec un portable équipé d’une distribution Linux et effectuer les tâches usuelles d’un employé lambda : connexion à Internet, téléchargement, envoi de mail, rédaction d’un document, d’un tableau… Bref, « business as usual ».


Une expérience confortable

T60p.jpg
Le T60 est la première version Lenovo des ThinkPad d’IBM. Il allie performance et confort pour des usages professionnels et multimédias, avec cependant une petite faiblesse sur les fonctions sonores.
Pour se lancer, il ne fallait pas non plus que la machine soit limitée. Nous avons porté notre choix sur un T60 d’IBM, la dernière génération de la gamme ThinkPad, la première conçue directement par Lenovo, le constructeur chinois. Elle se révèle confortable pour toutes les tâches habituelles à effectuer sur un portable. Avec 100 Go de disque, 1 Go de mémoire vive et un processeur Core Duo Intel à 2,33 GHz, elle était dans la très bonne moyenne des machines actuellement sur le marché.

Pour la mise en place de l’OS, cela a été encore plus confortable. C’est le responsable informatique de Novell qui a remplacé le Windows SP2 présent sur la machine par une image de la Sled 10. Il précise : « Les employés de Novell en France détiennent la même sur leur PC depuis que nous sommes passés sur ce système après avoir été longtemps sous Windows. »

Évidemment, la première question suit : « Et comment ça s’est passé ? »« Plutôt bien, poursuit Christian Boulhonet, nous avons eu une formation sur OpenOffice, qui est nécessaire car l’outil est différent de celui de Microsoft. Pour le reste, je n’ai pas eu de cas de personnes qui seraient venues me voir en me disant qu’elles ne pouvaient pas travailler, sous pretexte qu’elles ne s’y retrouvaient pas ou que cela ne fonctionnait pas. » C’est un peu rasséréné que nous repartons avec la machine dans notre sac. À l’expérience, le responsable informatique a dit vrai. Même un « Windowsien » y retrouve ses petits. Il faut dire que Novell et les communautés Linux ont tout fait pour qu’il en soit ainsi. La plupart des raccourcis claviers sont identiques et les principales touches du clavier correspondent aux mêmes fonctions que sous Windows. Pas vraiment de quoi être dépaysé !


Une multitude d’outils

La première chose qui frappe lorsque l’on ouvre le système, c’est la présence de très nombreux outils, comme dans le menu programme de Windows. Des outils système aux applicatifs, en passant par les jeux ou les outils multimédias, la distribution est aussi complète que celle de Microsoft. La gestion des photos, de la musique (sauf les .WMA !) sont présentes et fonctionnent parfaitement. Ainsi, il suffit de brancher le lecteur MP3 pour que le logiciel Banshee s’ouvre et vous propose d’importer votre musique sur le PC. Bon, il suffit ensuite de choisir le bon dossier si vous voulez les retrouver ! Même chose avec F-Spot pour les photos.

Seule la prise en charge des DVD ou des DivX est encore un peu faible. Ce problème devrait certainement se régler dans les prochaines versions, dont celle à venir en mars, qui va prendre en charge beaucoup plus de codecs qu’actuellement.
Pour l’application bureautique, OpenOffice, nous avons cependant un peu tâtonné pour l’avoir en français. En effet, le package n’est pas dans « customize », mais dans « options ». Bref, rien d’insurmontable ! Et avec un bon manuel, on s’en sort très bien.


Comme un utilisateur quelconque

Après une petite découverte de la machine et du système, nous sommes entrés dans les choses sérieuses. D’abord se connecter à Internet. Là, le « Network Manager » est impressionnant de simplicité. Il suffit de cliquer sur le réseau reconnu et d’entrer ses codes pour se trouver connecté en quelques secondes. Tout comme dans Windows, on le trouve intuitivement à la même place, dans la barre d’outils du bas de l’écran.

Il a été tout aussi simple de configurer l’outil Evolution, le client mail de la suite de Novell.
Grosso modo, si vous savez configurer un compte sous Outlook, vous savez utiliser Evolution. D’ailleurs, la configuration est très analogue sinon identique. Pour ces deux outils, pas besoin d’être grand clerc ou ingénieur pour s’y retrouver. Le petit plus de l’outil provient d’une interface encore plus intuitive que dans Outlook avec une case « Junk ». Quand le mail est sélectionné, il suffit de cliquer sur ce bouton pour que le mail aille directement dans le dossier Courrier indésirable. Finis les « drags and drops » sans fin ! Pour le reste, les fonctions sont totalement identiques. Bien ; le moral est au beau fixe. En cinq minutes, on se connecte et on récupère ses mails. Que du bonheur. Passons donc à la phase suivante.


Heureusement, il existe YaST

Cette étape consiste à se connecter à l’imprimante en réseau. Ici, la différence avec Windows est fondamentale. Évidemment, pour un « Windowsien », il paraît logique d’aller dans la gestion des imprimantes. Ne perdez pas votre temps, ce n’est pas là que vous vous en sortirez, surtout si vous n’avez pas l’adresse URI de l’imprimante. Il faut passer par YaST et avoir les droits administrateurs sur la machine. Dans la partie Hardware, vous trouverez « imprimantes » ou « printer » et il ne vous restera plus qu’à vous laisser guider par l’assistant. En quelques minutes, l’imprimante sur le réseau est reconnue et le lien est installé. Il en va de même pour les fichiers partagés.

L’outil YaST est également bien pratique lorsque vous souhaitez télécharger des packages ou des logiciels nouveaux. Il est vrai que, pour un non spécialiste, il est parfois difficile de retrouver le bon exécutable dans des zips de plusieurs centaines de mégaoctets. YaST vous simplifie la vie dans ce domaine.

Dans la case « recherche » de l’outil, vous pouvez par exemple écrire OpenOffice. Immédiatement, l’outil affichera les packages ou patches pouvant être téléchargés. Il suffit ensuite de cliquer pour que la machine s’occupe seule de l’installation. Petit « plus », il n’est pas besoin de redémarrer la machine à la suite de ces installations.

YaST et Control Center sont comme les deux tours de contrôle du système et vous permettent de tout configurer de manière simple. Rapidement à l’aise, on ne peut s’empêcher de vouloir trifouiller et de tout paramétrer à sa manière. Très agréable !

Que dire d’autre sur cette prise en main. Une petite déception sur la reprise de macros dans Calc, mais ce n’est pas une surprise. En revanche, les tableaux simples avec juste des calculs de totaux sont totalement repris. Writer est sans surprise et ressemble de plus en plus à Word ! Là aussi, les raccourcis clavier sont quasiment identiques. La prise en charge des .doc est sans problème. L’interopérabilité entre les deux systèmes est clairement en voie de normalisation.


Une interface des plus agréables

cube3.jpg
L’interface 3D et le cube se révèlent très utiles lors des usages en multifenêtrage.
L’interface 3D renforce encore le côté confort de la distribution. Le métier de journaliste comporte une grosse partie de synthèse, avec souvent plusieurs documents ouverts en même temps ou qu’il picore les éléments intéressants pour l’article qu’il écrit. Avec la transparence et le cube, le problème du multifenêtrage n’en est plus un. Il suffit de faire contrôle + alt et d’appuyer sur les flèches droite ou gauche pour faire tourner le cube et vous retrouver sur la bonne fenêtre pour pouvoir travailler, lire… L’habitude est vite prise et le cube devient si indispensable qu’il en devient pénible de revenir sur une interface différente. Alors, sur mon PC de bureau, vivement Vista, ou je passe à autre chose !

Au bilan, il n’existe vraiment que peu de différences fonctionnelles entre les deux suites, qui apportent pour un utilisateur moyen les mêmes choses. On pourra argumenter tant que l’on veut, c’est le sentiment qui domine après cette prise en main. De plus, pour un utilisateur novice de Linux, pas vraiment de quoi avoir peur de passer sur une des distributions dites « user friendly », comme la Novell ou la Ubuntu. Pour les fonctions plus avancées, notre jugement se doit d’être réservé. Ce n’était de toute façon pas le but de cette prise en main.
Vista Security Center
Réduire
La gestion des sécurités sous Vista
Par Loïc Duval - Copyright L'Informaticien, tous droits réservés

Un centre de sécurité au rôle plus fondamental qu’il n’y paraît, un nouveau pare-feu, une gestion repensée des privilèges et des fonctionnalités d’isolation sont au cœur de l’arsenal défensif du nouveau Windows. Un arsenal que l’administrateur doit apprendre à piloter via les GPO.


Image1.jpg
L’UAC, le nouveau système de contrôle des élévations de privilège : même en mode administrateur, il produit une alerte de sécurité dès qu’une telle élévation est réclamée par un programme.

Pour Microsoft, c’est une évidence. Les principes imposés dans l’élaboration du système et ses nouvelles fonctionnalités font de Vista non seulement le Windows le plus sécurisé jamais créé, mais également l’un des systèmes, si ce n’est le système grand public le plus solide.

L’avenir nous dira jusqu’à quel point Microsoft a su concrétiser ses objectifs. Mais il ne fait aucun doute que Windows Vista multiplie les protections entraînant ainsi une avalanche de fonctionnalités et de paramétrages nouveaux que les administrateurs doivent impérativement apprendre à maîtriser. Car, quels que soient les systèmes de sécurité mis en place, s’ils ne sont pas compris, maîtrisés et mis en œuvre, ils se transforment rapidement en passoire.
D’autant que bien des fonctionnalités ont déjà fait couler beaucoup d’encre, et se sont attirés les foudres d’éditeurs emblématiques, tels que Symantec et McAfee, à commencer par le nouveau Centre de Sécurité inamovible. Réelles limitations, danger potentiel à moyen terme, coups d’esbroufe marketing d’éditeurs en manque de publicité ou en retard dans leur développement : qu’en est-il exactement ?  Quels contrôles les administrateurs Windows conservent-ils ? Il est grand temps de faire le point, maintenant que Vista est livré en standard avec les nouveaux PC.


L’UAC et l’utilisateur standard

L’une des clés fondamentales de Vista sur les précédentes éditions de Windows – y compris Serveur –, c’est la sécurisation des accès système par l’introduction d’une technologie dénommée UAC (User Account Control) qui « nuance » les privilèges attribués par défaut à l’administrateur et encourage l’utilisation des profils « utilisateur standard ». Jusqu’ici, le profil « utilisateur standard » de Windows était tellement incohérent que la plupart des administrateurs préféraient laisser des droits d’administration aux utilisateurs sur leur propre machine, notamment ceux en situation de mobilité : il leur était en effet impossible de modifier le moindre paramètre système, comme ajuster la zone horaire, ajouter des polices ou imprimantes, modifier les paramètres de gestion d’énergie, etc.

Avec UAC, Microsoft a revu son approche. Désormais, les opérations sont classées en deux grandes familles : celles directement acceptables, et celles nécessitant une élévation de privilèges. En mode utilisateur, l’UAC accorde ainsi certains droits « administratifs » à l’utilisateur pour lui permettre de réaliser les tâches basiques vues ci-dessus – et jusqu’ici interdites. En mode administrateur, l’UAC veille à prévenir l’administrateur de chaque élévation de privilège forçant ce dernier à prendre conscience du risque potentiel et s’assurer qu’il s’agit bien là d’une demande volontaire et non l’œuvre d’un processus automatique malveillant. Autrement dit, l’UAC bloque toute action administrative non autorisée. Par défaut, le mode administrateur et les applications qui s’y exécutent sont en réalité en mode standard. Toute élévation de privilège se traduit par l’apparition d’une boîte de confirmation.
L’UAC est d’ailleurs critiquée par certains pour le nombre d’avertissements qu’elle déclenche au quotidien. Notamment parce que trop d’applications Windows ont pris l’habitude de prendre leurs aises en mode administrateur sans aucune précaution. On peut penser que désormais, les développeurs seront davantage sensibilisés à ces problématiques et veilleront à concevoir des applications évitant les élévations de privilèges inutiles (Microsoft leur fournit d’ailleurs un outil, le Standard User Analyzer Tool, pour leur permettre de facilement détecter si leur application s’exécutera correctement en mode standard).

Les administrateurs doivent cependant ne pas perdre de vue qu’ils ont un contrôle précis du comportement de l’UAC via les célèbre GPO (Group Policies). Ils peuvent ainsi selon les groupes d’utilisateurs définir le comportement de l’UAC aussi bien pour les administrateurs que pour les utilisateurs standard. Ils peuvent ainsi choisir entre l’affichage d’une simple alerte, la saisie d’un mot de passe, l’acceptation systématique ou le refus systématique. On peut dès lors envisager de créer un groupe limité d’administrateurs doté de l’acceptation systématique, une demande de mots de passe pour les autres groupes administrateurs et d’utilisateurs avancés et un refus systématique d’élévation de privilège pour les utilisateurs standard.

Sous le gestionnaire des politiques de groupe, les règles liées à l’UAC sont situées au niveau de l’arborescence : 
Computer Configuration \ Windows Settings \ Security Settings \ Local Po-licies \ Security Options.

On notera au passage, que le profil
« Power User » n’existe plus sous Vista, n’ayant désormais plus aucun sens (il est maintenu au niveau réseau pour des raisons de compatibilité).


Le Centre de Sécurité

L’autre grand sujet à polémique, c’est le Centre de Sécurité Windows (WSC). Cette fonctionnalité n’est pas à proprement parler nouvelle puisqu’elle est née avec le Service Pack 2 de XP. Mais sous XP cet élément du système peut être totalement désactivé, une action dont ne se sont pas privés bien des éditeurs de solution de sécurité pour installer en lieu et place leur propre centre de sécurité – souvent à des fins publicitaires pour leurs autres productions. Sous Vista, le WSC est désormais inamovible au grand dam des éditeurs de sécurité qui perdent ainsi un argument de vente et doivent revoir leurs suites ; le centre de sécurité maison embarquant souvent les modules de mise à jour automatique.


Image3.jpg
Le Centre de Sécurité, accusé des pires maux par les éditeurs de suite de sécurité, et pourtant extensible et agnostique vis-à-vis de la diversité des offres du marché. Il devient fondamental sous Vista.

WSC est avant tout conçu pour permet-tre aux utilisateurs de rapidement comprendre l’état du PC et de ses protections. Sous Vista, il prend en compte davantage de critères et fournit davantage de conseils. Si Microsoft a souhaité le rendre inamovible, c’est avant tout pour deux raisons :

• d’abord parce que les éditeurs qui désactivaient WSC à l’installation ne le rétablissaient jamais à la désinstallation de leur produit, laissant les utilisateurs sans contrôle de sécurité ;
• ensuite, parce que WSC a aussi en charge de vérifier le bon téléchargement et la bonne application des mises à jour de sécurité, notamment dans les contextes d’entreprise via WSUS, une fonctionnalité oubliée de bien des centres de sécurité alternatifs.
Or, la mise à jour de Windows est une clé fondamentale pour garantir l’inviolabilité et la sécurité à long terme du système. Il est dès lors normal que Microsoft considère le sujet comme critique.
Sous Vista, WSC surveille non seulement les mises à jour mais également le pare-feu, les protections anti-malwares – d’une part l’antivirus, d’autre part l’antispyware – ainsi que d’autres paramètres de sécurité, comme le réglage des sécurités du navigateur, l’activation du mode protégé d’IE7, etc.

L’une des qualités fondamentales du WSC sur d’éventuelles alternatives, c’est que le système sait prendre en compte la présence de multiples protections, même si elles sont redondantes – par exemple plusieurs pare-feu ou plusieurs antivirus – et même si elles proviennent d’éditeurs très différents. Une qualité que l’on ne retrouve pas sur les centres de sécurité alternatifs.
L’insistance de certains éditeurs à vouloir reprendre le contrôle du WSC est assez incompréhensible, voire suspecte. D’autant que WSC dispose d’une autre qualité essentielle dans un contexte professionnel : les administrateurs disposent de réglages applicables aux politiques de groupe afin de définir le comportement de WSC. Il peut ainsi être désactivé pour les ordinateurs reliés au domaine, et l’on peut également contrôler si WSC doit avertir l’utilisateur, se contenter d’afficher une icône en cas de risque ou ne rien afficher à l’utilisateur.
Sous l’éditeur des politiques de groupe, les paramètres du WSC sont situés dans l’arborescence :
Computer Configuration\Administrative Templates\Windows Components\Security Center.


Le Firewall de Vista

Il est impossible de parler de la sécurité de Vista sans évoquer son nouveau pare-feu. Une première constatation s’impose. Bien que décrié et dénigré par la concurrence, le pare-feu interne du SP2 de XP était déjà redoutable d’efficacité. Il n’a jamais été pris en défaut et il ne laissait rien passer. Mais il était uniquement « inbound », protégeant contre l’extérieur uniquement. Dès lors il n’empêchait aucun trojan « d’appeler maison ». En outre, les malwares n’avaient aucune difficulté à le désactiver ou le reparamétrer par simple accès Registry. Des faiblesses sur lesquelles se sont appuyés les éditeurs de sécurité pour le dénigrer. Oubliant par la même occasion que : s’il en était ainsi, c’est parce que le système était infecté (mais que fabrique donc leur antivirus/antitrojan/antitout ?!) et qu’il était donc déjà trop tard ! Omettant tout autant que leur firewall soi-disant bidirectionnel était de toute façon perméables aux techniques de fuites de trojans et aux échanges par le port 80, donc au final guère plus efficace et utile que celui de XP ! C’est bien connu, quand un système est infecté, le pare-feu ne peut plus grand-chose…


Image4.jpg
Le pare-feu applique automatiquement des règles de sécurité différentes selon le réseau détecté.

Tout comme celui du SP2, le pare-feu de Vista est activé par défaut, et ce, avant l’activation des interfaces réseau, protégeant ainsi l’ordinateur lors de la phase de démarrage. Mais contrairement à celui du SP2, le pare-feu Vista est bidirectionnel. Certes, seul le filtrage « inbound » est activé par défaut. Le filtrage « outbound » est sous l’entière gestion des administrateurs réseau et permet de protéger les ressources du système contre des comportements « inattendus ». Vista offre en réalité deux outils de gestion du pare-feu : une version simplifiée destinée au grand public, et une version enrichie s’appuyant sur la MMC permettant un réglage fin des filtres Inbound et Outbound. Certes les réglages Outbound demandent des compétences en la matière et sont loin d’être aisées à mettre en œuvre pour un néophyte (contrairement à d’autres produits grand public comme ZoneAlarm).


Image5.jpg
Le pare-feu Vista dispose de deux interfaces utilisateurs différentes. Ici, la version grand public.

Mais ce pare-feu est actif aussi bien en IPv4 qu’IPv6. Et c’est désormais la même
« console » MMC qui gère les paramétrages du pare-feu et d’IPSec – pour le support des échanges de clé, de l’authentification, de l’intégrité de données et optionnellement de l’encryptage.
L’autre avancée majeure du pare-feu Vista, face à celui de XP, est sa capacité à automatiquement appliquer des profils de protection différents selon le réseau détecté. Le pare-feu applique ainsi automatiquement des règles différentes selon qu’il est connecté au domaine de l’entreprise, à un réseau local à domicile ou un réseau public (hôtel, aéroport, etc.). L’idée étant d’assurer une protection renforcée dès que l’utilisateur quitte le cadre contrôlé de l’entreprise. Ces trois profils sont pré-paramétrés, mais peuvent bien évidemment être entièrement redéfinis par l’administrateur réseau.
Il faut cependant savoir qu’un seul et unique profil est actif à un moment donné même si l’ordinateur est doté de plusieurs interfaces réseau. Le choix automatique du réseau suit la logique suivante qui privilégie toujours l’option la plus sécurisée :
• si toutes les interfaces réseau sont connectées au domaine, le profil « Travail » est appliqué ;
• si toutes les interfaces réseau sont connectées au réseau privé, le profil « Maison » est appliqué ;
• si au moins l’une des interfaces est connectée à un réseau public, le profil « Public » est appliqué.
Encore une fois, les paramétrages s’appliquent au travers des politiques de groupe sous l’arborescence : Computer Confi-guration\Windows Settings\Security Set-tings\Windows Firewall with Advanced Security.


Windows Defender

Pour compléter le pare-feu, Microsoft a décidé d’incorporer son antispyware Windows Defender en standard dans Vista. Reste encore à déterminer ce que Microsoft entend réellement par « antispyware ». La réponse est en fait assez simple : toute menace qui n’est ni un virus, ni un worm. Keyloggers, adwares intrusifs, programmes espions, rootkits et dialers sont donc ses cibles privilégiées. Il était probablement juridiquement trop dangereux et stratégiquement stupide (quand on a à son catalogue un antivirus) d’étendre la protection de Defender sur le terrain de chasse des antivirus. Windows Defender est en réalité avant tout un bouclier temps réel qui réagit contre les outils qui s’attaquent aux zones sensibles du système comme les zones de démarrage. L’outil est activé par défaut et a été conçu pour fonctionner en harmonie avec les autres spywares du marché et bien évidemment les anti-virus. Par défaut, Windows Defender est réglé pour être le moins intrusif possible.
Les administrateurs peuvent là encore contrôler le comportement de cette protection via les politiques de groupe :
Computer Configuration\Administrative Templates\Windows Components\Windows Defender.


Image7.jpg
Windows Defender est surtout un bouclier temps réel apportant une ligne de défense supplémentaire contre les spywares, rootkits, dialers et keyloggers.


L’isolation des PC infectés

La dernière ligne de défense à disposition des administrateurs se dénomment NAP. Acronyme de « Network Access Protection », NAP est un mécanisme complémentaire au Security Center dont il partage une partie des technologies. NAP est une « politique de groupe » qui exige et impose que l’état de santé d’un PC soit conforme aux règles de l’entreprise avant de lui autoriser l’accès au réseau. Lorsqu’un utilisateur nomade (ou non d’ailleurs – NAP est une évolution du Network Access Quarantine Control utilisé par Windows Server 2003 R2 pour isoler les accès en VPN mais fonctionne aussi bien en remote qu’en local – connecte son ordinateur au réseau, l’état de santé de ce dernier est analysé et contrôlé. Si le PC ne dispose pas des dernières mises à jour, si ses défenses (antivirus, pare-feu, Windows Defender, paramètres IE7) ont été désactivées, si ses bases antivirales sont périmées, l’utilisateur se verra attribuer un accès restreint ou se verra refuser l’accès selon les règles définies par l’administrateur. L’utilisation de NAP implique cependant la mise en œuvre d’une architecture réseau basée sur Windows « Longhorn » Server et ne pourra donc être déployée avant la fin de l’année.
Au final, il paraît évident que Vista est bien mieux armé que ses prédécesseurs contre les attaques modernes. Certes, il est encore hors de question de se passer d’antivirus, mais les suites perdent largement de leur intérêt et il ne faut pas chercher ailleurs le mécontentement des éditeurs du marché de la sécurité. Reste que, plus que jamais, le rôle des politiques de groupe et leur paramétrage affiné par l’administrateur auront une influence essentielle dans l’équilibre entre la souplesse d’usage du système et sa solidité. Des réglages que les administrateurs doivent impérativement maîtriser et définir avant d’envisager le déploiement de Vista sur leur réseau.


La sécurité du 64 bits
Faut-il opter pour le 64 bits ? Si la sécurité est une de vos préoccupations majeures, la réponse est « oui, très certainement » ; malgré les risques d’incompatibilités avec certaines de vos imprimantes si les pilotes 64 bits ne sont pas disponibles. Le kernel 64 bits de Vista est en effet doté, tout comme celui de XP x64 et de Windows Server x64 mais en version plus avancée, d’une protection contre les intrusions de type « rootkits » dénommée PatchGuard. Celle-ci interdit tout détournement des fonctionnalités du Kernel pour, par exemple, masquer des transferts de fichiers, des clés de registres ou des fichiers. En outre, Windows Vista 64 bits oblige la signature des pilotes au niveau Kernel afin de limiter les possibilités d’intrusion au cœur du système via le mécanisme de pilotes. Rappelons que Vista dispose de nouveaux modèles de drivers encourageant l’élaboration des pilotes au niveau « User » et non plus « Kernel. »


Vista Ready
Réduire
Soyez Vista Ready !
Par Loïc Duval - Copyright L'Informaticien, tous droits réservés

Ne vous lancez pas à l’aveuglette dans la mise à jour vers Vista. Le nouveau système soulève de nombreux problèmes de compatibilité, tant matériels que logiciels, qui sont loin d’être insurmontables mais qui nécessitent une attention préalable.


VistaUpgradeAdvisor.jpg
Vista Upgrade Advisor de Microsoft

Passer à Windows Vista peut s’avérer une entreprise douloureuse et particulièrement coûteuse si un minimum de préparation et d’évaluations matérielles et logicielles ne sont pas réalisées préalablement. Même si Microsoft s’évertue à vouloir minimiser les exigences matérielles de son nouveau système, ces dernières demeurent la principale barrière au déploiement du nouveau Windows. Vista apprécie les performances homogènes à tous les niveaux, mais cette homogénéité ne se contente pas du minimum et s’obtient au final avec des composants et configurations modernes. D’autant que la machine elle-même n’est pas la seule source de préoccupation. Les périphériques sont également à prendre en compte. Windows Vista, s’il maintient les anciens formats de pilotes (jusqu’à un certain degré car tous les pilotes XP ne s’installent pas sous Vista), apporte aussi ses propres nouveaux modèles de drivers – notamment graphiques et audio.
Le problème est encore plus épineux pour ceux qui opteront en faveur de la sécurité du 64 bits. Il n’est en effet pas incohérent de faire rentrer les nouvelles machines en Vista 64 bits. Après tout, les processeurs actuels fonctionnent tous dans ce mode, et les avantages en matière de sécurité sont indéniables. Malheureusement, les éditions 64 bits du système exigent des pilotes 64 bits. Ces derniers sont encore très rares, bien que les versions x64 de XP et Windows Server existent depuis plusieurs années. Le 64 bits promet donc quelques déconvenues en matière de compatibilité des imprimantes, scanners et autres périphériques réseau.


Contrôler la compatibilité matérielle

Face à ces problématiques, l’utilisateur grand public comme l’administrateur réseau ne sont pas désarmés. Consciente du problème, la firme de Bill Gates et d’autres acteurs ont développé différents systèmes d’évaluation des performances et d’analyse des risques d’incompatibilité. Voici quelques outils indispensables à nos yeux, et qu’il nous semble indispensable d’exécuter avant de réaliser et même d’envisager la migration vers Vista.

Vista Upgrade Advisor de Microsoft (gratuit en anglais)


C’est sans conteste l’outil le plus populaire, le plus pratique et le plus immédiat. Il est directement accessible sur le site WindowsVista.com. Bien que présenté comme un outil en ligne (parce qu’il récupère ses informations en ligne à partir de bases de données constamment mises à jour et enrichies), VUA installe bel et bien du code sur le PC (ce qui suppose d’avoir les droits d’administration). Son analyse est complète et couvre à la fois le matériel, les périphériques et les logiciels installés. Pour chacune de ces trois catégories, un rapport complet est délivré avec des conseils (ces derniers étant regroupés au final dans une liste de tâches). Chaque rapport met en évidence les éléments compatibles, ceux connus comme incompatibles et enfin ceux non connus. Et, c’est bien sur ces « inconnus » que devra se reporter toute votre attention. Vous pouvez parier que les problèmes les plus retords viendront de ces éléments. D’où la nécessité d’une analyse attentive avec interrogation des sites Web des constructeurs et éditeurs incriminés. Mais au final, le rapport de VUA est probablement l’information la plus utile à disposer avant de se lancer dans une migration.

Windows Vista Hardware Assessment, de Microsoft (gratuit, en anglais)

Windows Vista Hardware Assessment est un outil d’inventaire et d’évaluation pour rapidement analyser un parc de PC. Il est conçu pour se relier à distance aux différents PC connectés au réseau de l’entreprise, sans déployer le moindre agent logiciel sur les machines. L’outil évalue la compatibilité matérielle et crée automatiquement un rapport complet avec des recommandations de mise à niveau pour chaque PC. Il met en évidence les blocages au déploiement, tels que les BIOS et périphériques incompatibles avec Vista, ainsi qu’une évaluation de l’expérience Vista possible en fonction des ressources disponibles.
Autant dire que cet outil, qui peut être perçu comme la version professionnelle de l’Upgrade Advisor, s’avère totalement indispensable aux administrateurs. Il permet de chiffrer concrètement les coûts matériels d’une telle migration et d’élaborer différents scénarios pour chaque poste, afin de minimiser les investissements et d’optimiser le passage à Vista.

VistaHardwareAssessmentTool.jpg
Vista Hardware Assessment.


Vista Readiness Test de PC Pitstop (gratuit, en anglais)


Le site d’évaluation des performances de PC, « PC Pitstop », propose son propre système d’analyse, qui est indépendant de Microsoft et des constructeurs. Et c’est bien là que réside tout son intérêt. Car le logiciel ne se contente pas de vérifier si le matériel satisfait au minimum requis par Microsoft. Il  propose également une vue plus objective, s’appuyant sur leurs propres recommandations en matière de performance pour un fonctionnement optimal de Vista.


Analyser les configurations matérielles

Comme nous l’avons vu, les rapports fournis par les outils précédents restent relativement incomplets : bien des composants et matériels sont simplement listés comme « inconnus ». Un vide d’autant plus gênant que leur analyse reste relativement superficielle et ne s’étend pas à tous les composants de la carte mère. Avant de vous lancer dans l’installation de Vista, il paraît essentiel de réaliser un inventaire précis de ces composants (modèle, fabriquant, etc.). Il existe une pléthore d’outils sur le marché, mais certains présentent l’avantage de pouvoir être exécuté a postériori, autrement dit une fois Vista installé. Nous avons retenu ici les trois principaux :

Sandra Lite 2007 de SiSoft (gratuit, en français)

Très populaire, Sandra Lite 2007 offre l’avantage d’être compatible Vista, mais également d’exister en version 32 bits et en version 64 bits – cette dernière offrant ainsi une vue complète des pilotes 64 bits installés et nécessaires. Sandra Lite 2007 est très complet et convivial, mais ses rapports n’offrent malheureusement pas de liens directs vers les drivers et sites des constructeurs, obligeant donc à des recherches manuelles.

SiSoftSandra.jpg
Sandra de SiSoftware.


Everest Corporate/Ultimate
Edition 3.5 de Lavalys (shareware, en français)


La version gratuite n’est plus disponible, mais la version Ultimate en shareware permet de réaliser un rapport complet de sa machine pendant près d’un mois. Elle fournit des informations très complète et en français, ainsi que les liens vers les mises à jour des pilotes. Si la version Ultimate s’adresse au grand public, la version Corporate permet une gestion globale et automatisée du réseau et d’adresse donc aux administrateurs.

EverestUltimateLavalys.jpg
Everest Corporate/Ultimate Edition 3.5 de Lavalys


Dr.Hardware 8.0 de Peter Gebhard (shareware, en anglais)

Gratuit mais en anglais, Dr.Hardware fonctionne aussi bien en 32 bits qu’en 64 bits sous XP. En revanche, son pilote 64 bits n’étant pas signé, son installation sous Vista x64 est partiellement impossible – mais pas de problème en 32 bits. Les rapports sont particulièrement complets et détaillés avec différentes vues graphiques sur les tests de performance.

Belarc Advisor de Belarc.com (gratuit, en anglais)

Ce n’est certainement pas le plus précis ni le plus complet du lot, c’est en revanche le plus accessible et le plus rapide à mettre en œuvre. Une solution très pratique lorsqu’on ne veut pas envahir une machine et obtenir en quelques secondes une vue significative du système. Une adresse à conserver dans un coin de sa mémoire…


Les outils de compatibilité logicielle

La compatibilité logicielle est évidemment l’autre facette majeure de la problématique du déploiement. D’un point de vue architecture interne du système, Vista est une mise à jour majeure qui, dès lors, engendre son inévitable lot d’incompatibilités. Elles sont toutefois assez similaires à celles déjà rencontrées lors de l’introduction de Windows 2000 et de Windows XP. On retrouve les mêmes coupables, ceux qui fricotent d’un peu trop près avec le Kernel ou le matériel, à l’instar des anti-virus, des logiciels de manipulation des disques, des logiciels de gravure de CD/DVD, etc. Vista introduit deux autres éléments d’incompatibilité : l’UAC, qui peut empêcher l’installation de certaines applications (bien que l’UAC ait été conçu pour éviter les incompatibilités), et IE7, dont les sécurités accrues ont un impact sur les applications intranet.
Pour lutter contre ces problèmes d’incompatibilités, les solutions ne sont pas si nombreuses. Elles passent d’une part par l’utilisation des outils de tests et de déploiement de Microsoft dont l’incontournable « ACT 5.0 » et par les logiciels de virtualisation qui permettent l’exécution d’anciens systèmes avec leurs anciennes applications au sein de machines virtuelles s’exécutant dans une fenêtre Windows. Enfin, n’oubliez pas que les éditeurs – même s’ils ont été étrangement longs à réagir – proposent, ou proposeront sous peu, des mises à jour Vista pour leurs applications phares.

Application Compatibility Toolkit 5.0 de Microsoft
(gratuit, en anglais)


Conçu pour aider les clients à comprendre les problèmes de compatibilité des applications, à identifier les applications qui seront compatibles avec Vista, à déterminer les applications nécessitant des tests complémentaires, ce toolkit est surtout essentiel pour élaborer et distribuer des correctifs de compatibilité sur les applications déployées dans l’entreprise.

Virtual PC 2007 de Microsoft (gratuit, en français)


Actuellement en version « bêta 2 » (et  accessible à tous), la nouvelle version du logiciel de virtualisation de Microsoft se démarque par sa facilité d’utilisation et sa prise en main immédiate. La version 2007 supporte les extensions VT d’Intel et Pacifica d’AMD qui améliorent et accélèrent l’exécution de machines virtuelles. VPC 2007 fonctionne en 32 bits et 64 bits, mais ne supporte que des machines « 32 » virtuelles. En revanche, Virtual PC 2007 n’émule toujours pas les ports USB, ce qui peut s’avérer handicapant sur certaines applications, notamment celles exploitant un périphérique ou une clé de protection à ce format.



VMWare Workstation 6 de VMware (payant, en français)

La nouvelle version de VMWare est également encore en bêta, mais sa sortie est imminente. Elle supporte les versions 32 bits et 64 bits de Vista, et gère des machines virtuelles 32 bits et 64 bits. Elle supporte l’assistance matérielle à la virtualisation d’Intel et AMD et émule les ports USB 2.0.

VirtualBOX de Innotek (Open Source, en français)


Moins performante, moins complète et moins mature que les deux précédentes, VirtualBox est une solution de virtualisation 32 bits sous licence GPL. Compatible Vista (en 32 bits uniquement) ; elle mérite qu’on s’y intéresse.


WinSAT, un bienfait à maîtriser
Windows Vista possède un mécanisme d’évaluation des performances dénommé WinSAT. Celui-ci attribue une note à chaque composante clé du système. WinSAT c’est aussi et surtout une API facilement exploitable par les administrateurs à partir de scripts en VBScript ou JScript. Les résultats sont non seulement analysables par programmation, mais sont également produits sous forme de fichiers XML facilement exploitables et intégrables au sein de bases de données. Les administrateurs peuvent ainsi se bâtir une base de performances sur leur parc et en tirer des informations utiles sur les futures besoins d’évolution. Ces résultats d’analyse sont accessibles dans le dossier C:\Windows\Performance\WinSAT\DataStore.

encadreWINSAT.jpg



Page 1
Réduire
DOSSIER SPECIAL LINUX
La scène française en pleine effervescence
Par Yann Serra - Copyright L'Informaticien, tous droits réservés

Des distributions vedettes, des progiciels épatants, des sociétés de service qui se démènent… Sur le marché Linux, la France reste un acteur de premier plan.

Mandriva 2007, toujours l’un des meilleurs Linux pour PC

Toujours très orientée station personnelle, l’édition 2007 de la Mandriva – la fameuse distribution française qui correspond à l’un des trois Linux de référence pour les professionnels du monde entier – affiche des caractéristiques qui n’ont pas à rougir face à celles de Windows Vista. Ce Linux au look entièrement refait (nouveau thème « Ia Ora » plus simple, plus coloré et plus « glacé ») apporte au PC de bureau des effets 3D dans tous les sens (rotations cubiques des bureaux virtuels, rangements des fenêtres, etc.), un nouvel outil RMPDrake2 toujours plus ergonomique pour tenir à jour le système et gérer les installations de logiciels, un démarrage 20 % plus rapide et toutes les dernières versions des applications – dont le site bureautique OpenOffice et le navigateur Mozilla. En sus, on y trouve des logiciels propriétaires particulièrement utiles, puisqu’il s’agit du lecteur vidéo LinDVD, des antivirus de Kaspersky et BitDefender, ainsi que de Cegeda, le module de TransGaming qui permet de faire tourner tous les jeux Windows sur Linux (d’ailleurs, la Mandriva 2007 est livrée avec le jeu de voiture FlatOut, successeur de Destruction Derby). On pourra télécharger gratuitement la Mandriva 2007 à partir de l’adresse http://www.mandriva.com/fr/download/mandrivaone.


Ingeniweb et “Ecl ip’s” rejoignent AlterWay
Tempête dans le monde du service autour des logiciels Open Source en France ! Ingeniweb, dirigé par Olivier Deckmyn, leader sur le marché des serveurs d’applications Zope et du CMS Plone et “Ecl ip’s”, dirigé par Hervé Leclerc, éditeur d’une solution d’administration réseau éponyme se sont agglomérés autour de Philippe Montargès, ex-patron de Masterline, partenaire historique de Ingres dans l’Hexagone et Véronique Torner, ex-fondatrice de Black Orange, SSII spécialisée dans l’e-commerce, pour former le groupe AlterWay. L’ambition ? Devenir le leader des sociétés de service autour du logiciel libre d’ici à deux ans. Outre la complémentarité de leurs compétences techniques, ces partenaires réunissent sous la bannière AlterWay un joli palmarès de clients, parmi lesquels la Gendarmerie nationale, le ministère de la Justice, la Société Générale, EDF, Air France, Renault ou encore Total.




Nuxeo EP 5, plus Java et plus fonctionnel


sceneNuxeo.jpg
Stéphane Fermigier, ancien président de l’AFUL, est à la tête de Nuxeo.
Depuis peu premier éditeur de logiciels libres à faire partie de l’Aproged (Association des professionnels du document numérique, laquelle comprend entre autres Adobe, DHL, EMC, Fujitsu, IBM, Ricoh ou encore Xerox), la société française Nuxeo vient de faire migrer sa solution d’ECM (gestion des contenus numériques) sur la plate-forme JEE, abandonnant de fait ses racines en Zope et Python. Nommée Nuxeo Enterprise Platform 5.0, cette nouvelle version dispose de modules de collaboration, de workflow, de conformité réglementaire, d’audit et de reporting. Devenue un véritable outil de production, elle permet désormais d’enregistrer des documents par glisser/déposer vers le navigateur (interface de la solution ), de transformer automatiquement tout document bureautique en PDF et même d’écrire ses propres fonctions avec le langage interne NXQL. Une solution qui promet de se hisser rapidement au sommet du marché (des partenaires intégrateurs comme Capgemini ou Sword lui ont déjà ouvert les bras) et qui s’installera tout naturellement sur une configuration Linux/JBoss. Notons que Nuxeo 5 existe également en version pour poste de travail, il s’agit de Nuxeo RCP, lequel repose sur Eclipse RCP et travaille de concert avec MS Office (Windows) ou OpenOffice (tous OS). Les logiciels de Nuxeo peuvent se télécharger gratuitement (le support est commercial) à l’adresse http://www.nuxeo.org/sections/downloads/. Pour mémoire, la société Nuxeo est dirigée par Stéphane Fermigier, ancien président de l’AFUL.

Ulteo, le nouveau Linux de Gaël Duval


sceneUlteo.jpg
Créateur de la désormais célèbre distribution Mandriva, Gaël Duval repart aujourd’hui de zéro avec la mise au point d’un nouveau Linux, Ulteo.
Parti de chez Mandriva l’année dernière, Gaël Duval, le créateur initial de la distribution Mandrake, revient déjà avec un nouveau Linux nommé Ulteo. Son originalité ? Le concept du bureau connecté ! Non seulement Ulteo a le bon goût de se mettre à jour tout seul – aucune manipulation n’est à faire – mais, en plus, il permet à son utilisateur d’accéder à ses données de n’importe quel PC du monde qui dispose d’un navigateur Web et d’un runtime Java. Dans les faits, il suffit de se connecter sur le site d’Ulteo, d’entrer son login et son mot de passe et, hop, le bureau de son PC sous Ulteo (la machine étant restée à la maison) apparaît dans la fenêtre du navigateur ! En vérité, il s’agit d’un OS virtuel, c’est-à-dire une copie qui tourne sur les serveurs d’Ulteo et qui s’adapte aux préférences que l’on avait enregistrées sur son poste de travail. De retour chez soi, le Linux Ulteo local téléchargera automatiquement à partir du site d’Ulteo les fichiers que l’on aurait pu créer en travaillant à distance – pour l’heure, les utilisateurs bénéficieront de 1 Go de tampon de stockage. Ce système devrait permettre de développer un nouvel OS économique à terme, avec facturation de services en ligne supplémentaires. Pour le reste, c’est-à-dire en ce qui concerne l’utilisation classique et locale du système, Ulteo décline Kubuntu (à savoir une Debian pensée pour les stations personnelles avec KDE comme environnement graphique) dans une version encore plus esthétique et une ergonomie très proche de celle de Windows – ceci afin de rassurer les utilisateurs de ce système. Pour le moment juste disponible en version Alpha, Ulteo se montre parfaitement stable et plutôt bien fourni en pilotes pour reconnaître le matériel. Ce Linux se télécharge gratuitement à l’adresse http://www.ulteo.com/main/ download.php.

Les autres Linux français

La scène française est particulièrement féconde en matière de distributions Linux originales. Citons par exemple SystemRescueCD (http://www.sysresccd.org/Download.fr.php), un live-CD désormais en version 3.1 qui sert à démarrer et à réparer un PC dont le disque dur contient un Linux ou un Windows planté. Basé sur une distribution Gentoo, PapugLinux (http://www.sylbal.net/papugLinux/papugDownload.html) est un Linux qui a le bon goût d’offrir un système personnel moderne (bureautique, Internet) capable de fonctionner sur les plus vieilles configurations (avec juste 64 Mo de Ram !). Arrivant tout juste en version 3.0, Kaella (http://kaella.linux-azur.org/#telechargement) est une version live-CD entièrement francisée de la distribution pour machines personnelles Knoppix (bureau KDE, suite OpenOffice…). Depuis peu en version 4.0, Zenwalk (http://www.zenwalk.org/modules/tinycontent/ index.php?id=1) est un Linux qui offre un système à la Mac OS X complet pour PC. Enfin, même s’il ne s’agit pas vraiment d’un Linux, signalons l’existence de FreeNAS (http://www.freenas.org/), un système FreeBSD taillé sur mesure pour être un serveur NAS entièrement configurable à partir d’une interface Web.


sceneidealx.jpg
Nat Makarevitch
Le prestataire/éditeur IdealX publie le Gilo nouvelle édition

IdealX, le prestataire de service/éditeur français à qui l’on doit notamment OpenTrust (une infrastructure Open Source de sécurité et de confiance qui repose sur l’utilisation de clés de chiffrement), vient de mettre à jour le Gilo. Rappelons qu’il s’agit du Guide en ligne des logiciels Open Source, dont le propos est de référencer les logiciels libres les plus prometteurs de leur catégorie. Un outil essentiel pour tous les décideurs qui peut se consulter à l’adresse http://www.idealx.com/content/view/22/185/lang,fr/. Rappelons qu’IdealX a été cofondé par Nat Makarevitch, l’un des principaux gourous du monde Open Source en France.



Page 2
Réduire
DOSSIER SPECIAL LINUX (suite)
Le TOP 10 des applications professionnelles Linux
Par Yann Serra - Copyright L'Informaticien, tous droits réservés

Après l’infrastructure et avant le poste de travail, les progiciels sont certainement le domaine applicatif qui milite le plus en ce moment en faveur de Linux.

Linux doit avant tout son succès à la richesse de ses fonctions d’infrastructure : firewall (Netfilter), serveur Web applicatif (plate-forme LAMP, plate-forme Java avec JBoss, etc.), serveurs usuels (courrier, fichiers, etc.), voire moteurs spécialisés (standard téléphonique avec Asterisk, antivirus central pour Windows avec ClamAV, etc.). En marge de cela, il tend à offrir une logithèque de plus en plus complète pour le poste de travail (bureaux graphiques KDE et Gnome, suite bureautique OpenOffice, suite d’outils Internet complète par les auteurs de Mozilla, etc.). Les applications que nous vous présentons dans ces pages sont entre les deux : souvent appelées « progiciels », elles adressent des besoins métier précis, agglomèrent des données venues de sources multiples et fonctionnent pour la plupart sur un serveur (ce qui signifie que l’utilisateur les pilote au travers d’une interface Web ou par l’intermédiaire d’un client dédié). Pour chacune de ces applications, la caractéristique « Moteurs » indique les couches d’infrastructures nécessaires à leur fonctionnement. Cela revient à dire que même si Linux constitue généralement la meilleure base pour les faire tourner (pour des raisons de coût et de performances) et le plus souvent il s’agira des Linux de Red Hat ou de SuSE (pour des raisons de garanties contractuelles), tous ces logiciels peuvent fonctionner par-dessus n’importe quel système qui accepte de lancer leurs moteurs (Windows, Mac OS X, etc.). Toutes ces applications sont librement téléchargeables sur le site que nous indiquons. En revanche, leur support (configuration, dépannage, mises à jour, etc.) est typiquement commercialisé par un prestataire (éditeur, SSLL). Enfin, nous mettons ici en exergue les progiciels qui, selon notre enquête, apparaissent les plus en vogue. Cela dit, nous indiquons systématiquement leurs plus importants concurrents.


Gérez votre activité avec ADempiere


Moteurs : Java (JBoss) et PostgreSQL
Site : www.adempiere.com
Concurrents : Compiere, ERP5, Tiny ERP

Déclinaison communautaire de l’ERP Compiere, ADempiere est un progiciel de gestion intégré dont les différents modules permettent à l’entrepreneur de modéliser, de suivre en temps réel et de contrôler tous les aspects de son activité commerciale. Ceux-ci comprennent les fournitures, l’inventaire, la chaîne de fabrication, la chaîne de distribution, la facturation et, en prime, un squelette de site Web marchand qu’il n’y a plus qu’à adapter.

applis01Adempiere.jpg



Analysez vos chiffres avec Pentaho

Moteurs : Java
Site : www.pentaho.com
Concurrents : SpagoBI

Pentaho est une suite intégrée de modules conçus pour « faire parler vos chiffres ». Elle permet de récupérer vos données (fonctions d’ETL), de les analyser (répartition selon de multiples critères, mesures, découverte de liens entre différents éléments), de les suivre (alertes, prévisions) et de dresser à partir d’elles des rapports dynamiques réutilisables par de nombreux logiciels (les fichiers peuvent être générés au formats XML, PDF, RTF, HTML ou encore Microsoft Excel).

applis02Pentaho.jpg



Assurez votre comptabilité avec PhpCompta

Moteurs : Apache, PHP et PostgreSLQ
Site : www.phpcompta.org
Concurrents : PhpOrganisation, Quasar Accounting

Particulièrement adapté aux législations française et belge, PhpCompta assure à la fois les facturations, l’import des opérations bancaires, les déclarations de TVA, la balance des comptes, le plan comptable, l’impression de journaux sous divers formats ou encore les fiches de paie. Utilisant peu de ressources sur un serveur, PhpCompta se pilote via une interface Web sécurisée qui propose un moteur de recherche et permet de travailler sur plusieurs journaux à la fois.

applis03PhpCompta.jpg



Rendez vos commerciaux plus productifs avec VTiger CRM

Moteurs : Apache, PHP et MySQL
Site : www.vtiger.com
Concurrents : SugarCRM

Déclinaison « vraiment Open Source » de SugarCRM, VTiger CRM est une suite intégrée et complète de modules pour bâtir de l’information autour de ses clients. Grâce à lui, les commerciaux peuvent tenir à jour des historiques de leurs opérations ou encore automatiser des campagnes de mailing. Sa grande force réside dans la disponibilité d’extensions qui l’interconnectent avec Microsoft Outlook, Microsoft Office ou encore Thunderbird.

applis04vtiger.jpg
 


Suivez vos documents avec Alfresco

Moteurs : Java (JBoss) plus base de données
Site : www.alfresco.com
Concurrents : Nuxeo, eXo

Le propos d’Alfresco est de faciliter l’organisation (stockage…), le contrôle de la chaîne de production (versions concurrentes, dépendances, suivi…) et la publication (formatage…) de vos documents, quelle que soit leur nature (texte, multimédia…). Il permet d’organiser des « espaces fonctionnels », d’accéder aux documents depuis le système de fichiers, de définir des règles (notamment en ce qui concerne la « carrière » des documents) et d’administrer des droits.

applis05Alfresco.jpg



Passez au travail collaboratif avec Open-Xchange

Moteurs : Linux (Red Hat ou SuSE)
Site : www.open-xchange.com
Concurrents : eGroupWare, Kolab, phpGroupWare, OpenGroupware

Installé sur un serveur, Open-Xchange permet à ses utilisateurs de stocker, organiser et partager leurs rendez-vous, contacts, tâches, e-mails et autres documents. Open-Xchange peut se piloter à partir d’une interface Web, mais également avec les clients les plus répandus, comme Outlook Express (Windows), Novell Evolution (SuSE), Kontact (Mandriva) ou encore Mozilla Calendar. Des extensions lui permettent d’utiliser encore plus de protocoles standard.

applis06openxchange.jpg



Planifiez vos projets avec GanttProject

Moteurs : Java
Site : ganttproject.sourceforge.net
Concurrents : DotProject, Planner

Initié par l’université de Marne-la-Vallée et compatible avec Microsoft Project, GanttProject permet de planifier graphiquement toutes les étapes d’un projet à l’aide d’un diagramme de Gantt. Typiquement, il s’agit de découper le projet en un arbre de tâches et d’attribuer à chacune d’elles des ressources humaines ainsi que des dépendances. D’une utilisation très simple, ce logiciel a déjà été traduit dans plus de vingt langues.

applis07Gantt.jpg



Élaborez vos maquettes industrielles avec BRL-CAD

Moteurs : tous Unix (Linux, Mac OS X…), Windows
Site : brlcad.org
Concurrents : QCad, SagCAD

Inventé par l’armée américaine, BRL-CAD est un logiciel de CAO industrielle reconnu pour ses qualités de modélisation ergonomique, de stockage économe et d’analyse. Basé sur le traitement des contenus, il permet la réalisation de maquettes bien plus réalistes (matériaux, densités, thermie) que les objets essentiellement traités en surface (polygones, arêtes) produits par les logiciels de CAO dans le monde de l’animation. 

applis08BrlCad.jpg



Réalisez plaquettes et catalogues avec Scribus

Moteurs : QT
Site : www.scribus.net
Concurrents : OOo Draw

Logiciel de PAO capable de produire des documents parfaitement exploitables par les imprimeurs (quadrichromie, norme ICC, PDF avec transparence), Scribus importe tous les formats d’image (bitmaps, vectoriels) et les textes RTF, HTML, Microsoft Office ou OpenDocument. Il reconnaît aussi bien les polices TrueType, Type 1 qu’OpenType et sait même générer automatiquement des codes barres. Ses fichiers sont dans un format XML. 

applis09Scribus.jpg



Élaborez votre portail avec Joomla!

Moteurs : Apache, PHP, MySQL
Site :
www.joomla.fr
Concurrents : Mambo

Déclinaison de Mambo, Joomla! a pour propos la publication dynamique en ligne de tout votre patrimoine numérique. Ne réclamant aucune connaissance technique particulière et disposant d’extensions par centaines, il offre à l’utilisateur de manipuler des « templates », des composants ou encore des « bots » pour élaborer n’importe quel type de site Web, allant de la simple publication d’articles avec flux RSS à la boutique d’e-commerce la plus complète. 

applis10Joomla.jpg

Page 3
Réduire
DOSSIER SPECIAL LINUX (suite)
Dans la peau d’un administrateur Linux
Par Yann Serra - Copyright L'Informaticien, tous droits réservés

Le saviez-vous ? La maintenance des serveurs sous Linux peut être nettement plus simple et bien plus efficace que l’administration des systèmes propriétaires alourdis, entre autres, par leur environnement graphique. Voici une simulation qui vous donnera peut-être envie de franchir le pas.

admin03.jpg
Le téléchargement, l’installation et la configuration de base des logiciels serveurs sous Debian se résument essentiellement à taper une commande.
La mise au point de passerelles, firewalls, proxies, DNS et autres routeurs capables d’orienter dynamiquement les flux de données vers des serveurs disponibles vous passionne peut-être, mais ce n’est pas le métier de l’administrateur – enfin, disons que dans la mesure du possible, faites en sorte que ça ne le devienne pas. On a beau se revendiquer spécialiste Linux, système qui anime tous ces rouages, l’efficacité consiste à ne surtout jamais perdre de temps à réinventer la roue. Des boîtes toute faite existent pour remplir automatiquement les tâches citées ci-dessus (à commencer par les boxes ADSL qui font office de passerelles-firewalls suffisantes) et l’on se contentera tout au plus de les configurer au moyen de l’interface Web qui apparaît généralement lorsque l’on pointe un navigateur sur leur adresse IP privée. De même, l’installation et la configuration d’une solution applicative commerciale (du style progiciel en Intranet, qui fonctionne par-dessus un serveur d’applications Java, et qui exploite une grosse base de données Oracle, ou site Web public marchand, ce qui revient techniquement au même) est à la charge du prestataire qui l’a vendue à l’entreprise. N’allez surtout pas y entreprendre des manipulations qui invalideraient la garantie et pourraient vous faire perdre votre place.
Non, votre seul travail « créatif » – c’est-à-dire autre que le dépannage des utilisateurs – en tant qu’administrateur Linux consiste à configurer le réseau (attribution des adresses IP…) et à installer dessus des services « simples ». Outre les serveurs d’expédition et de réception d’e-mails (potentiellement pris en charge par votre fournisseur d’accès), on pense à la mise en place d’un serveur Web qui permette à vos collègues d’utiliser en ligne un site ou une petite application métier, mis au point par le webmaster ou le développeur de l’entreprise – ce n’est pas vous. Vont de pair avec le serveur Web, un serveur FTP, pour que les responsables puissent installer et mettre à jour le site Web, et un serveur de base de données, pour que l’application en ligne puisse travailler avec des informations dynamiques. On pense aussi à des sauvegardes régulières et, pourquoi pas, à un accès VPN pour que les collaborateurs nomades puissent utiliser les ressources du réseau local (répertoires partagés, etc.) comme s’ils se trouvaient physiquement dans l’entreprise.


Astuce : générez des rapports lisibles
À l’évidence, les développeurs Web ont commis quantité de fautes de liaisons dans le code de leur site : nombre d’images ne s’affichent pas. Connaître les noms des fichiers qui posent problème est théoriquement facile, il suffit de lire le fichier « error_log » que génère le serveur web. Sauf que… celui-ci est constitué au bas mot de plusieurs milliers de lignes sous la forme « [Mon Dec 18 08:10:25 2006] [error] [client 80.118.147.176] File does not exist: /htdocs/images/toto23.jpg » (la date, l’adresse IP de l’ordinateur qui a accédé au site, puis le nom du fichier manquant). Et comme certains fichiers sont répétés un nombre incalculable de fois, il faudrait inutilement tout lire pour être sûr de les référencer tous ! le cauchemar… Heureusement, le Shell d’un système Unix (dont Linux) permet d’enchaîner sur une seule ligne plusieurs commandes de recherche et de tri pour rendre ce travail automatique :

grep "File does not exist:" error_log | awk ‘{print $13}’ | sort | uniq | less

Ici, le caractère « | » (dit « pipe ») sert à passer le résultat de la commande de gauche en paramètre à la commande de droite ; « grep » ne sélectionne dans le fichier « error_log » que les lignes qui comprennent la chaîne « File does not exist: » ; « awk » (avec son argument « print ») y capture le treizième groupe nominal (le nom du fichier, dans notre cas) ; « sort » trie tous les résultats par ordre croissant ; « uniq » supprime tous les doublons. Enfin, « less » affiche le résultat final. On obtient ainsi, très clairement, la liste des fichiers qui posent problème.




Votre baguette magique : la Debian

admin02.jpg
Votre botte secrète ? Vous installez la Debian pour animer les serveurs « simples ».
Pour accomplir ces tâches qui ne regardent que vous, vous avez un secret : vous n’installez pas vos serveurs à partir de ces Linux monolithiques, ultra formatés, ultra francisés et ultra complets que sont les Red Hat, SuSE et autres Mandriva. Laissez-les aux prestataires commerciaux qui y trouvent l’opportunité d’un standard (donc la possibilité d’une garantie de maintenance). Non : vous, vous utilisez la Debian, une distribution Linux qui présente au moins deux avantages dans votre corps de métier. D’une part, c’est un vrai Lego qui permet de n’installer que le strict minimum sur une machine : vos serveurs n’ont effectivement pas besoin de tout l’environnement graphique et ils seront bien plus rapides, ainsi que bien plus faciles à surveiller sans cela. D’autre part, une seule commande (« apt-get install ») permet à la fois de trouver sur Internet, de télécharger, d’installer et d’activer automatiquement n’importe quel programme serveur – il sera toujours actif après un redémarrage du système. Il n’y a rien à faire, si ce n’est répondre à quelques questions lors de l’installation (« faut-il activer ce service, par défaut ? »), voire retoucher un peu les fichiers de configuration pour les adapter à votre réseau. Attention : autant la distribution Debian vous est d’une grande aide dans vos seules tâches d’administration, autant il convient de la proscrire au profit des Red Hat et consorts dès lors qu’il s’agit d’installer contractuellement une application un tant soit peu commerciale sur Linux (sauf si celle-ci est expressément prévue pour Debian, bien entendue, mais elle ferait alors partie d’une minorité).
Démontrons sans plus attendre les bénéfices que cette fameuse Debian vous apporte.


Astuce : remplacez le mot de passe de root sans le connaître
Horreur ! Vous venez d’entrer dans vos fonctions et l’administrateur précédent est parti sans vous communiquer le mot de passe root du serveur (root étant le super compte utilisateur qui a le droit absolument de tout faire sur le système) : la machine démarre sans problème – et active tous ses services automatiquement – mais vous ne pouvez strictement rien configurer. Pis, il n’y a ni lecteur de disquette, ni lecteur de CD pour booter sur un disque d’amorce. Avec un peu de chance, le dispositif d’amorce sur le disque dur laisse quelques secondes à l’utilisateur pour intervenir avant de lancer le système, ce qui va permettre de contourner la procédure normale de démarrage et se retrouver momentanément avec une machine absolument pas fonctionnelle, mais sur laquelle on a tous les droits sans avoir à entrer de mot de passe. Si le dispositif de démarrage est l’outil LILO, il suffit d’appuyer sur la touche d’échappement ou de tabulation pour s’arrêter sur une invite de commande (« LILO: »). On y entre la commande suivante pour obtenir tous les droits (la commande « linux single » ne marche pas toujours) :

linux init=/bin/bash

Si le dispositif d’amorce est GRUB, appuyez sur la touche « e » (apparition de l’invite « grub> ») et entrez les deux lignes suivantes (en partant du principe que votre partition de démarrage soit hda1, c’est-à-dire la première du premier disque ; si vous l’ignorez, commencez par taper « find /vmlinux » pour l’identifier) :

kernel /vmlinux root=/dev/hda1 init=/bin/bash
boot


Une fois ceci fait, vous arrivez sur l’invite du système en mode mono-utilisateur (« # »). Montez la partition racine en lecture/écriture, puis modifiez le mot de passe de root en entrant les deux lignes suivantes (attention, le clavier est certainement en qwerty par défaut) :

mount -o remount,rw /
passwd


Fermez proprement avec un « mount -o remount,ro / », puis redémarrez l’ordinateur (faisons simple, en appuyant sur la touche « Reset » ou sur le bouton d’allumage).




Déployez votre réseau

Imaginons que vous souhaitiez déployer sur le réseau local quatre machines serveurs. La première fera office de serveur Web capable d’exécuter des applications PHP et de communiquer avec un serveur de bases de données MySQL. Elle offrira également un accès FTP pour mettre à jour le site. La seconde sera le serveur MySQL. La troisième servira pour la sauvegarde et la quatrième permettra aux collaborateurs externes de se connecter au LAN via un accès VPN. Pour commencer, prenez quatre PC lambda ; il peut s’agir de vieilles « casseroles », mais songez que des disques durs en RAID sont un plus pour la sécurité des données et que le serveur Web sera a priori celui qui aura le plus besoin de puissance. Ensuite, téléchargez l’image-disque de base de la dernière Debian (http://cdimage.debian.org/debian-cd/3.1_r4/i386/iso-cd/debian-31r4-i386-netinst.iso), gravez-la sur un CD, puis installez-la sur les quatre machines en leur attribuant une adresse IP fixe (par exemple 192.168.0.2 pour le serveur Web, 192.168.0.3 pour la base de données, 192.168.0.4 pour la sauvegarde et 192.168.0.5 pour le serveur VPN). Le fait d’attribuer une IP fixe est plus pratique pour les configurations ultérieures (l’adresse IP est enregistrée dans le fichier « /etc/network/interfaces » de chaque machine). La version de la Debian citée ici correspond à une distribution basique qui s’enrichit automatiquement de toutes les fonctions, dont vous pouvez avoir besoin, en allant les télécharger toute seule sur Internet lors de l’installation.
Pour des raisons de commodité, vous pourrez avoir envie de piloter chacune des machines à distance, ce qui vous évitera de vous déplacer pour chaque manipulation et vous permettra même de retirer les écrans et claviers des serveurs. La prise de contrôle à distance se fait par l’intermédiaire de l’outil SSH, dont le serveur s’installe sur vos machines Debian en tapant « apt-get install ssh » (il conviendra de répondre aux questions posées, notamment être favorable au lancement automatique de « sshd ») et dont un client existe pour toutes les plates-formes, y compris Windows et Mac OS X : il suffit de taper depuis votre poste « ssh <nom_d’utilisateur>@<adresse.IP.du.serveur> », puis d’entrer votre mot de passe lorsqu’on vous le demande, pour vous retrouver dans le système de la machine distante (le nom d’utilisateur et le mot de passe sont ceux que vous avez créés lors de l’installation de la Debian sur chaque serveur). À tant faire, optez pour l’installation d’Ubuntu sur votre propre poste de travail : il s’agit d’une implémentation de la Debian qui, pour le coup, dispose d’absolument tous les artifices graphiques de la station personnelle, certains la considérant même plus riche que les Red Hat (Fedora, en l’occurrence), SuSE et autres Mandriva dans ce domaine.


Astuce : rangez automatiquement les fichiers en vrac
Le répertoire d’échange auquel ont accès tous vos utilisateurs sur le serveur de fichiers est un véritable sac de nœuds : de multiples sujets s’y côtoient dans la plus joyeuse pagaille de documents. Voici comment ranger au sein d’un répertoire « rangez/toto/ » tous les documents qui citent le produit Toto dans leur nom. Pour commencer, placez-vous (à l’aide de « cd ») dans le répertoire d’échange, puis tapez les deux lignes suivantes (attention, votre Shell doit être le Bash, soit le Shell par défaut sous Linux) :

mkdir -p rangez/toto
for i in *[Tt][Oo][Tt][Oo]* ; do mv $i rangez/toto/ ; done


La commande « mkdir » crée d’abord plusieurs répertoires imbriqués grâce à l’option « -p ». « for » est une commande interne au Bash qui lance une suite de commandes (initiée par « do », terminée par « done », avec le caractère « ; » pour séparer chaque élément) pour tout fichier du répertoire courant qui commence et se termine par une chaîne quelconque (les jokers « * »), mais comprend dans son nom le mot « toto », qu’il soit écrit avec des majuscules ou des minuscules (les deux possibilités étant indiquées pour chaque caractère grâce aux crochets « [" et "] »). La routine principale n’est quant à elle composée que de la commande de déplacement « mv » qui prend comme source le compteur de « for » (ici « i », précédé par un « $ » pour indiquer qu’il s’agit d’une variable) et comme destination le chemin « rangez/toto/ ».




Installez un serveur Web qui sait exécuter du PHP et utiliser une base de données MySQL

Sur le PC du serveur Web, installez Apache, PHP, l’interface de communication vers MySQL et même l’application PhpMyAdmin (pour peupler et administrer la base de données MySQL via un navigateur Web à partir de n’importe quel poste de travail), à l’aide de ces trois commandes :

apt-get install apache2
apt-get install libapache2-mod-php4 php4-mysql php4-gd php4-cli
apt-get install phpmyadmin


On dispose dès lors de deux sites Web sur la machine, un d’exemple et l’applicatif en ligne PhpMyAdmin. Le fichier de configuration de l’applicatif en ligne PhpMyAdmin est « /etc/apache2/sites-available/phpmyadmin ». Éditez-le en tapant la commande « nano /etc/apache2/sites-available/phpmyadmin » (« nano » est un éditeur de texte bien plus ergonomique que le spartiate « vi » : c’est Ctrl-o pour enregistrer et Ctrl-x pour quitter) afin de modifier le port d’écoute : mettez quelque chose comme « *:81 » à la suite des directives « Listen » et « VirtualHost ». Ensuite, éditez le fichier « /var/www/phpmyadmin/config.inc.php » pour indiquer l’adresse du serveur MySQL (192.168.0.3, dans notre exemple).
Le fichier de configuration du site d’exemple est « /etc/apache2/sites-available/default ». Éditez-le pour indiquer au moins dans quel répertoire du disque dur seront stockés les fichiers de votre site ; à la suite des directives « DocumentRoot » et « <Directory », entrez quelque chose comme « /usr/local/ftpusers/ webmaster/ ». Ce répertoire n’existe pas encore, il s’agira de celui créé à l’attention du webmaster pour qu’il puisse venir déposer sur le serveur les pages et autres données du site Web (voir paragraphe suivant). Enregistrez le fichier, puis renommez-le en quelque chose comme « monsite » avec les commandes suivantes (« cd » sert à changer de répertoire et « mv » à déplacer ou renommer un fichier) :

cd /etc/apache2/sites-available/
mv default mon site


Les sites activés par Apache sont en réalité signalés par un lien dans le répertoire « /etc/apache2/sites-enabled/ ». Voici comment retirer (commande « rm ») le lien vers le site d’exemple et placer (commande « ln -s ») celui vers votre site :

cd /etc/apache2/sites-enabled/
rm default
ln -s ../sites-available/monsite ./


Enfin, relancez le serveur Web avec la commande « /etc/init.d/apache2 reload ». Voilà, votre site Web (encore vierge) est accessible à partir du LAN à l’adresse http://192.168.0.2 et PhpMyAdmin à l’adresse http://192.168.0.2:81.


Astuce : installez un paquet rpm sur une Debian
Peste ! Le logiciel que l’on souhaite installer sur son Linux de type Debian (qui utilise des paquets « .deb ») n’est disponible qu’en paquet de type « .rpm » (pour Red Hat, SuSE, Mandriva et consorts.). Qu’à cela ne tienne, il suffit d’utiliser la commande « alien » avec ses options « d » (conversion d’un rpm en deb) et « i » (installation automatique) pour parvenir à l’installer. Par exemple, pour le paquet « toto.rpm » :

alien -di toto.rpm

Seul problème, cette bidouille ne gère pas automatiquement les dépendances (c’est-à-dire l’installation automatique de paquets annexes nécessaires au fonctionnement de celui-ci). Il faut donc rapatrier manuellement tous les fichiers manquants. Regardez les erreurs signalées à la suite de la commande « alien », recherchez sur Internet quelle archive contient tel fichier manquant au moyen de la commande « apt-file » suivie du nom de fichier, puis récupérez et installez cette archive avec la commande « apt-get install » suivie du nom de l’archive précédemment trouvée (une au hasard s’il y en a plusieurs). Attention : dans le cadre de logiciels professionnels, la garantie de l’éditeur (ou du distributeur) ne fonctionnera plus si vous utilisez cette bidouille !




Installez un accès FTP pour peupler le site Web

Reste à permettre au webmaster d’installer son site sur le serveur, ce que vous faites en lui donnant un accès FTP. Il suffit ici d’installer un serveur de ce type ; le programme Pure-FTPd en est l’incarnation la plus en vogue et on l’installe ainsi :

apt-get install pure-ftpd

Tous les utilisateurs qui accèderont par FTP seront des utilisateurs « virtuels » gérés par Pure-FTPd, déclinés à partir d’un seul compte utilisateur (appelons-le « ftpuser » et disons qu’il fait partie du groupe « ftpgroup ») à qui Linux donnera le droit de lecture et d’écriture. On crée ce « ftpuser », on bloque l’accès aux autres utilisateurs Linux et on configure en conséquence Pure-FTPd avec les commandes suivantes :

groupadd ftpgroup
useradd -g ftpgroup -G www-data -d /dev/null -s /etc ftpuser
rm /etc/pure-ftpd/auth/*
ln -s /etc/pure-ftpd/conf/PureDB /etc/pure-ftpd/auth/75puredb
echo "yes" > /etc/pure-ftpd/conf/ChrootEveryone
echo "yes" > /etc/pure-ftpd/conf/CreateHomeDir
echo "21" > /etc/pure-ftpd/conf/Bind


On remarque que, lors de la seconde commande, on a également attribué l’utilisateur « ftpuser » au groupe « www-data », ceci afin que le serveur Web puisse puiser dans les répertoires de téléchargement le site à afficher. On crée ensuite le compte de chaque utilisateur (virtuel) ayant un accès FTP à l’aide des trois commandes suivantes (imaginons que le premier utilisateur s’appelle donc « webmaster ») :

mkdir /usr/local/ftpusers/webmaster
pure-pw useradd webmaster -u ftpuser -d /usr/local/ftpusers/webmaster
pure-pw mkdb



Installez un serveur MySQL

Sur la deuxième machine (adresse IP 192.168.0.3), vous installez MySQL au moyen de la commande suivante :

apt-get install mysql-server-4.1

Il ne vous reste plus qu’à configurer le mot de passe de l’utilisateur « root » qui pourra créer et peupler la base de données à l’aide de commandes SQL (et de PHPMyAdmin depuis l’adresse http://192.168.0.2:81). Il suffit de taper la première commande ci-dessous, laquelle lance une session interactive pour les trois entrées suivantes :

mysql –u root -p
mysql> SET PASSWORD FOR root@localhost=PASSWORD(‘le_nouveau_pass’);
mysql> FLUSH PRIVILEGES;
mysql> quit;



Astuce : compilez plus vite avec plusieurs cœurs de processeur
Pour installer un programme à partir de son code source, il suffit de se déplacer dans son répertoire, puis de taper les commandes « ./configure » (qui adapte le programme à votre système), « make » (qui transforme - « compile » - le programme en binaire exécutable) et « make install » (qui installe l’exécutable au bon endroit). La phase de compilation étant la plus longue, on peut la paralléliser grâce à l’option « -j » pour qu’elle soit traitée par tous les cœurs de processeurs disponibles (à indiquer directement après « -j »), ce qui réduit de presque autant le temps de compilation. Par exemple, pour compiler un programme sur un processeur à double coeur, on fera « make -j2 » (et « make -j4 » pour un processeur à quatre cœurs). Attention, certains programmes ne veulent pas se compiler de cette manière. Si une erreur survient, recommencez sans « -j ».




Mettez en place des sauvegardes quotidiennes

Sur la troisième machine (192.168.0.4), vous créez un répertoire pour accueillir les sauvegardes quotidiennes des données de votre webmaster et un autre pour celles de la base de données à l’aide des deux commandes suivantes :

useradd -m webmaster
useradd -m database


admin06.jpg
Donnez un accès FTP à votre webmaster pour qu’il puisse installer à distance le site Web, sans toucher à vos machines.
Le mieux étant de taper également « passwd webmaster » et « passwd database » pour leur attribuer un mot de passe. Ensuite, vous vous rendez sur les deux premières machines pour placer une commande de sauvegarde dans leur « crontab ». La crontab est une liste d’action à faire automatiquement. On l’édite en tapant « crontab -e ». Puis, sur chaque ligne (qui correspond à une action à effectuer), on entre les chiffres de la date où effectuer l’action (dans l’ordre, il y a les minutes, l’heure, le jour du mois, le mois, le jour de la semaine, avec un « * » pour chaque paramètre non précisé), suivis de la commande à effectuer. Celle de synchronisation de deux répertoires (sauvegarde dite « incrémentale «) étant « rsync -a <source> <destination> », voici ce que l’on entrerait dans la crontab de la machine 192.168.0.2 pour faire une sauvegarde toutes les nuits à 3h00 du matin des données de votre webmaster (sur une seule ligne et en admettant que votre mot de passe soit « password ») :

0 3 * * * rsync -a /usr/local/ftpusers/webmaster webmaster:password@192.168.0.4:/home/webmaster/

En ce qui concerne la base de données, le mieux consiste à l’exporter d’abord sous la forme d’un script SQL récupérable par n’importe quel serveur de bases SQL (ce qui se fait au moyen de la commande « mysqldump »), puis de copier le fichier résultant sur le serveur de sauvegarde. Comme il y a deux actions à effectuer, le plus commode reste de les placer dans un script qui sera exécuté tous les jours par la crontab. Sur la machine 192.168.0.3, créez le script suivant et enregistrez-le en tant que « /usr/local/bin/dump.sh » (en admettant que votre mot de passe soit « password ») :

#!/bin/sh
mysqldump --all-databases > ~/backup-base.sql
rsync ~/backup-base.sql database:password@192.168.0.4:/home/database/


Pour que ce script soit exécutable, entrez la commande :

chmod +x /usr/local/bin/dump.sh

Puis entrez la ligne suivante dans la crontab pour effectuer une sauvegarde quotidienne à 4h00 du matin :

0 4 * * * /usr/local/bin/dump.sh


Astuce : téléchargez d’un coup toutes les données d’un site Web
Argh ! Les informaticiens de l’agence de communication ont oublié de mettre à votre disposition sur un FTP les 120 vidéos « .mpg » que vous devez récupérer – dix par mois. Celles-ci sont bien disponibles sur leur site Web, chacune accessible via une adresse du style « http:// www.agence.com/videos//.mpg », mais on ne peut pas se permettre de passer la nuit à visiter toutes les URL avec un navigateur pour les récupérer une à une (en cliquant dessus avec le bouton droit et en sélectionnant « Enregistrer sous… ») ! Heureusement, toutes ces opérations peuvent se faire d’un coup grâce à la commande « curl ». Si les vidéos à récupérer sont numérotées de 01 à 10 (« 01.mpeg », « 02.mpeg », etc.) et qu’elles sont contenues dans des répertoires numérotés selon le mois (de « 01 » à « 12 »), on peut rapatrier tous les fichiers en vrac dans le répertoire local en les renommant pour que le mois apparaisse dans leur nom de cette manière :

curl http://www.agence.com/videos\[01-12\]/\[01-10\].mpeg -o "#1_#2"


Les crochets (« [ ] ») indiquent des intervalles (« [01-12] » signifie « toutes les nombres de 01 à 12 ») : « curl » va effectuer des requêtes sur des noms de fichiers créés à partir de toutes les possibilités comprises dans ces intervalles. Le caractère d’échappement « \ » sert à indiquer que les crochets doivent considérer comme des caractères de contrôle et non comme faisant textuellement partie de l’URL. Il est possible de remplacer l’intervalle « [ ] » par une liste de noms au moyen de « { } » et même de récréer l’arborescence en local (c’est plus propre) en épaulant « -o » de l’argument « --create-dirs ». Par exemple, si les répertoires des mois sont plutôt nommés « jan », « fev », « mar », « avr », etc., on pourra faire :

curl http://www.site.com/videos\{jan,fev,mar,avr\}/\[01-10\].mpeg -o "#1/#2" create-dirs


Évidemment, il vous appartient de préciser la liste complète des répertoires entre les accolades, en les séparant par une virgule. Il est à noter qu’on ne peut pas ici utiliser les jokers « * » (n’importe quelle suite de caractères) et « ? » (n’importe quel caractère) : un site Web ne livrant la liste des répertoires et des fichiers qu’il contient que si on les lui demande, « curl » doit faire des requêtes explicites.




Mettez en place un VPN


admin08.jpg
Il suffit d’entrer quelques lignes à peine pour que toutes les sauvegardes se fassent automatiquement et régulièrement, sans même nécessiter de présence humaine pour les superviser.
Pour mémoire, le VPN est le moyen de faire croire à une machine située à l’autre bout d’Internet qu’elle fait partie du réseau local. Pour rendre la chose réalisable, il faut que le collaborateur nomade lance sur son ordinateur un logiciel client qui le connecte directement et, dans l’entreprise, qu’il y ait un serveur qui réceptionne les requêtes des nomades, leur attribue une adresse IP privée (par défaut du genre 10.8.0.x) puis fasse office de passerelle entre eux et le LAN. Une solution en vogue se nomme OpenVPN, laquelle passe par le protocole OpenSSL pour sécuriser les échanges. On pourra télécharger un client Windows à l’adresse http://openvpn.se/download.html, un client Mac OS X à l’adresse http://www.tunnelblick.net/ et une version RPM pour un client Linux (RedHat, SuSE, Mandriva, etc.) sur http://dag.wieers.com/packages/openvpn/. Pour qu’il puisse se connecter au réseau de l’entreprise, chaque collaborateur doit placer dans le répertoire de son application OpenVPN un fichier de configuration (comprenant l’adresse IP publique de l’entreprise, le port sur lequel il faut communiquer) et des clés d’authentification ; vous les lui fournirez après les avoir générés. Du côté du serveur, on gagnera à installer, en plus d’OpenVPN, OpenSSL pour plus de sécurité et la bibliothèque liblzo1 pour compresser les données (ce qui fait économiser de la bande passante). Ceci se fait au moyen des trois commandes suivantes :

apt-get install openvpn
apt-get install liblzo1
apt-get install openssl


La génération des clés pour tout le monde est réalisée par des scripts fournis. On se déplace dans le répertoire qui les contient et l’on exécute les scripts un à un en répondant à des questions – nécessaires pour générer les certificats d’authenticité. Pour commencer, il convient de créer, une bonne fois pour toutes, les clés et certificats soit communs, soit propres au serveur (appelons-le « serveurvpn ») :

cd /usr/share/doc/openvpn/examples/easy-rsa/
./clean-all
gunzip openssl.cnf.gz
./build-ca
./build-dh
./build-key-server serveurvpn
openvpn --genkey --secret keys/ta.key


Les fichiers « ca.crt », « ca.key », « ta.key », « serveurvpn.key », « serveurvpn.crt » et « dh1024.pem » vont dans le répertoire « /etc/openvpn/keys/ ». Pour chaque collaborateur à qui l’on souhaite donner l’accès, il faudra exécuter la commande suivante (remplacez « toto » par un nom arbitraire pour votre collaborateur) :

./build-key toto


Astuce : retrouvez un nom au sein de milliers de fichiers
Sur les dix mille pages « .html » de votre site, quelles sont celles où l’on parle de Linux, déjà ? Voici une commande qui vous répond et vous indique même le numéro de la ligne où Linux apparaît dans le fichier (avant de taper cette commande, placez-vous avec « cd » dans un répertoire suffisamment haut dans l’arborescence pour qu’il englobe tous les sous-répertoires de votre site) :

find . -iname \*.html -exec grep -Hn Linux {} \;


Ici, « find » est la commande de recherche de fichiers. Elle lance ses investigations à partir du répertoire courant « . » (elle descend automatiquement dans l’arborescence) et ne retient que les fichiers dont le nom, en majuscules ou en minuscules (option « -iname »), se termine par « .html » (le « * » est un joker qui veut dire « tous » et le signe d’échappement « \ » qui le précède sert à indiquer que « * » est un joker). Pour chacun de ces fichiers (accolades « { } » à la fin qui servent à indiquer en paramètre le résultat du début), « find » exécute (option « -exec », plus obligation de terminer la ligne avec « \; ») la commande « grep » qui détecte dans chaque fichier « .html » la présence de la chaîne « Linux » et indique le nom du fichier plus la ligne où cette chaîne se trouve (double option « -Hn »).



Il faut ensuite lui communiquer les clés « .crt » et « .key » engendrées, les clés « ca.crt » et « ta.key » générées précédemment, ainsi qu’un fichier de configuration « toto.ovpn » que l’on pourra décliner d’après l’exemple fourni dans le répertoire « /usr/share/doc/openvpn/ » (placez à la suite de « remote » l’adresse IP publique de l’entreprise ainsi que le port sur lequel communiquer, puis à la suite de « cert » et « key » les noms corrects des clés du client).
Il ne reste plus qu’à transformer le serveur OpenVPN local en routeur pour qu’il puisse mettre en contact les machines des collaborateurs nomades (qui auront une adresse IP privée du style « 10.8.0.x ») avec celles du LAN. Commencez par configurer la passerelle/firewall de votre entreprise pour qu’elle envoie toutes les connexions entrantes sur le port choisi vers l’adresse IP privée du serveur OpenVPN.
Ensuite, créez le fichier de configuration « /etc/openvpn/openvpn.conf » en adaptant les exemples fournis (notamment la ligne « push ‘route… » où l’on précise la plage d’adresses IP privées du LAN, par exemple « 192.168.1.0 »). Enfin, ajoutez les deux lignes suivantes au script « /etc/init.d/rc » (en partant du principe que votre serveur OpenVPN ait l’adresse 192.168.1.5 » dans le LAN) :

echo 1 > /proc/sys/net/ipv4/ip_forward
iptables -t nat -A POSTROUTING -o eth0 -j SNAT to-source 192.168.1.5


Il est à noter que certains prestataires, voire certains proxies, peuvent empêcher la communication VPN de s’effectuer avec les paramètres par défaut d’OpenVPN. La meilleure solution consiste alors à opter pour une communication en TCP plutôt qu’en UDP (directive « proto tcp » dans les fichiers de configuration) et à utiliser le port de communication 443 (à la fin de la directive « remote », après l’adresse IP, dans le fichier de configuration du client et « port 443 » dans celui du serveur).


Quelques lectures

Si ces quelques pages vous ont donné l’envie de vous lancer dans l’administration Linux, la lecture de livres sur le sujet vous aidera à aller plus loin. Parmi la littérature très fournie qui existe, nous vous conseillons de commencer par la collection
« À 200 % » (notamment « Debian à 200 % » et « L’administration Linux à 200 % »), chez O’Reilly, laquelle regroupe des volumes organisés en trucs et astuces, très faciles à lire.

tableau.jpg

Bonnes Feuilles
Réduire
Améliorer vos scripts Ajax

221212028.jpg
Cet article est extrait de « Bien développer pour le Web 2.0, bonnes pratiques Ajax ». Auteurs : Christophe Porteneuve Editions Eyrolles - 555 pages, 42 €.
Dans son ouvrage « Bien développer pour le Web 2.0, les bonnes pratiques d’Ajax », Christophe Porteneuve nous livre un condensé de dix ans d’expérience et de qualité sur le Web. Les trucs et plus de l’auteur dans ces bonnes feuilles de cet ouvrage.



Astuces pour l’écriture du code

En JavaScript, comme dans beaucoup de langages, on a intérêt à prendre quelques petites habitudes dans la rédaction de notre code source afin d’en améliorer la lisibilité et d’éviter certains pièges classiques. Voici quelques bonnes habitudes que je vous conseille.


Déjouer les pièges classiques

Connaissez-vous les termes lvalue et rvalue ? Ils désignent les deux opérandes d’une affectation : celui de gauche, qui constitue donc généralement une variable à laquelle on peut affecter une valeur, par exemple index ou items[3].nodeValue ; et celui de droite, qui constitue la valeur. Ce dernier est le plus souvent une expression ne constituant pas une variable, par exemple 42, 3 * 7 ou ’hello’ + name.
Un piège fréquent dans de nombreux langages, dont JavaScript, consiste à faire une faute de frappe lors d’une comparaison de type ==. On oublie un signe égal, et on obtient =, l’affectation. Au lieu de ceci :

If (x = = 42)


on a alors cela :

if (x = 42)


Un tel code, qui est très suspect, ne déclenche qu’un avertissement en JavaScript. De tels avertissements ne sont pas immédiatement visibles sur la plupart des navigateurs. Même pour un développeur web équipé d’extensions dédiées, comme la Web Developer Toolbar de Chris Pederick, ou Firebug de Joe Hewitt, un avertissement cause seulement l’apparition d’une petite icône de panneau triangulaire jaune dans un recoin de l’interface : on ne s’en rend pas forcément compte.

Ce code affecte 42 à x, et renvoie x, qui vaut donc 42, ce qui est équivalent à true, et fait passer la condition. Avec une valeur fixe comme ceci, il est clair que c’est une erreur : si on sait qu’on y met 42, on sait que la condition sera toujours vraie, on n’aurait donc pas mis de if.
Pour éviter ce genre de problèmes, je vous recommande de toujours placer les rvalues à gauche dans une comparaison ==. Prenons le code valide suivant :

if (42 == x)


Si vous oubliez par mégarde un signe égal, le code obtenu est le suivant :

if (42 = x)

Il ne fonctionne pas, tout simplement. Il génère une erreur, qui est souvent plus visible qu’un avertissement, et possède en outre l’immense avantage de stopper l’exécution du script, l’empêchant ainsi de continuer sur la base d’informations fausses, ce qui pourrait poser des problèmes. Imaginez qu’un tel code contrôle l’envoi d’un formulaire de suppression d’utilisateurs, et que le test vérifie qu’une case de confirmation est cochée... On causera certainement des dégâts si on opère sans de telles précautions.

Deuxième conseil : vous aurez peut-être remarqué que JavaScript n’exige pas toujours de terminer vos instructions par un point-virgule (;). Il s’agit en effet d’un séparateur d’instructions, et non d’un terminateur ; il est par ailleurs optionnel après les accolades fermantes. Hormis ce dernier cas, je vous conseille néanmoins de toujours utiliser le point-virgule à la fin d’une ligne de code : vous n’aurez pas à vous rappeler de le remettre le jour où vous rajouterez du code à la suite.
Dernier conseil, particulièrement destiné aux débutants : méfiez-vous d’un pointvirgule tapé trop hâtivement derrière la parenthèse fermante d’un if, for ou while !

Par exemple, le code suivant :

Listing 2-23 Un script avec de gros problèmes...

if (42 < 21)
    ;
alert(’youpi !’);
var msg = ’’;
for (var index = 0; index < 10; ++index);
msg += index + ’, ’;
while (true);
if (confirm(’Quitter ?’))
break;


Ce code affiche « youpi ! », laisse msg à la chaîne vide, et cause une boucle sans fin qui aura tôt fait d’épuiser l’interpréteur. Pourquoi ? Parce que le if, le for et le while ont un point-virgule en trop, discret, en fin de ligne, qui constitue une instruction vide. Comme, syntaxiquement, ces trois structures de contrôle ne gèrent qu’une instruction, c’est cette dernière vide qui est utilisée. En somme, le code précédent est équivalent au code suivant, où on repère bien mieux le problème :

Listing 2-24 Le même, reformaté

if (42 < 21);
alert(’youpi !’);
var msg = ’’;
for (var index = 0; index < 10; ++index);
msg += index + ’, ’;
while (true)
    ;
if (confirm(’Quitter ?’))
break ;


Attention donc à ne pas être trop zélé avec les points-virgules...
Ces conseils valent pour tous les langages dont la syntaxe est proche, voire identique, sur ces points : C, C++, Java, C#...


Améliorer la lisibilité

Je recommande de toujours commenter la fin d’une fonction, au moins lorsque celle-ci dépasse les 10 lignes. On se retrouve très vite avec juste la fin d’une fonction visible, que ce soit parce qu’elle est très longue (ce qui indique un problème de modularité du code, soit dit en passant), ou parce qu’on a fait défiler le code source et que seule la fin subsiste. Dans les exemples de ce livre, la plupart des fonctions non triviales ont ainsi un commentaire de fin :

function compute(factor) {
...
} // compute


Après une condition ou une définition de boucle, allez systématiquement à la ligne et indentez, c’est tellement plus facile alors de voir quel code dépend de votre structure de contrôle. Évitez ce genre d’indentations impropres :

Listing 2-25 Une indentation très discutable

function badCode() {
if (arguments.length == 0) throw new Error(’Ooops’);
console.log(’some log’);
for (var index = 0; index < 10; ++index) alert(index);
console.info(’some other info’);
while (document.body.hasChildNodes()) clearFirstNode();
console.info(’done.’);
}

Préférez une indentation correcte :

function betterCode() {
if (0 == arguments.length == 0)
throw new Error(’Missing arguments! Expected name.’);
console.log(’some log’);
for (var index = 0; index < 10; ++index)
alert(index);
console.info(’some other info’);
while (document.body.hasChildNodes())
clearFirstNode();
console.info(’done.’);
} // betterCode


Enfin, je ne saurai trop vous encourager à toujours adopter des conventions de nommage dans vos codes source, de préférence alignées sur les standards de l’industrie, ou en tout cas du langage employé. Voici quelques lignes de conduite simples, souvent adoptées dans d’autres langages répandus :

• Les types et espaces de noms utilisent une casse dite CamelCase majuscule, par exemple Ajax, Uploader ou PeriodicalUpdater.
• Les constantes utilisent une casse majuscule où les composants sont séparés par des soulignés (_) : MAX, REGEX_SCRIPTS.
• Les variables, arguments et propriétés utilisent une casse dite CamelCase minuscule, c’est-à-dire que la première initiale est minuscule. Quelques exemples d’expressions tout à fait réelles :
document.documentElement.firstChild.nodeValue, document.createElement.
• Lorsqu’on crée des objets, je recommande chaudement d’utiliser une convention pour nommer les propriétés censées être privées (non accessibles depuis l’extérieur de l’objet) : préfixez-les par un tiret bas, par exemple : _id, _each, _observeAndCache().
• Les noms de méthodes devraient toujours commencer par un verbe à l’infinitif, par exemple createElement, removeChild ou adoptNode. Les méthodes renvoyant un booléen devraient utiliser un verbe à la troisième personne du singulier, généralement au présent de l’indicatif, adapté à la sémantique de la méthode.
Exemples : hasChildNodes(), isBlank(), canClose().
Rien qu’en observant ces quelques règles simples, on améliorera sensiblement le code.


Mieux déboguer du JavaScript

JavaScript, c’est comme tout : plus nos outils sont bons, et plus on développe vite.
Croyez-le ou non, encore aujourd’hui, la majorité des développeurs web n’utilisent pas d’outils évolués dans leur navigateur pour mettre au point leur JavaScript. Ces mêmes développeurs, qui frémissent d’horreur à l’idée de devoir développer en Java, C++ ou C# sans un EDI haut de gamme (et ne parlons même pas de Visual Basic), persistent à n’utiliser, pour travailler avec JavaScript, que l’équivalent d’un silex et d’un bout de bois. L’annexe D et cette section visent à vous élever au-dessus de cet état préhistorique.
Et pourtant, l’univers JavaScript propose les mêmes richesses que ceux des autres langages : éditeurs, complétion automatique, véritables EDI même, frameworks de tests unitaires et fonctionnels, extraction automatique de documentation, et j’en passe.
Il ne s’agit pas ici de passer tout cela en revue, mais de nous pencher plus particulièrement sur la question du débogage. Pour citer un membre du projet Mozilla, « déboguer du JavaScript, c’est un peu faire la chasse aux fantômes ». Mais il ne s’agit pas là d’une fatalité. Des outils peuvent vous aider considérablement, et nous allons en voir quelques-uns ici.
Avant de commencer, j’affirme haut et fort que pour déboguer du JavaScript, rien ne vaut Mozilla Firefox. Ce navigateur figure déjà sur tous les postes de développeurs web un tant soit peu consciencieux, dans la mesure où, d’une part, il respecte infiniment mieux les standards que MSIE et, d’autre part, il est bien plus agréable à utiliser.
Par ailleurs, il est disponible sur toutes les plates-formes, et représente plus de 20 % du marché mondial des navigateurs web, ce qui équivaut à plusieurs centaines de millions d’internautes.

Mais ce qui rend Firefox si utile pour les développeurs web, c’est son mécanisme d’extensions. Tout un chacun peut fournir des fonctionnalités supplémentaires, et cela autrement plus facilement qu’avec le mécanisme BHO (Browser Helper Object) disponible dans MSIE, qui est par ailleurs l’une des principales sources de problèmes de sécurité sous Windows. Lorsqu’on développe une page web, la meilleure méthode aujourd’hui consiste certainement à travailler d’abord sous Firefox pour mettre au point le HTML, les CSS et les scripts, puis à tester exhaustivement sur les principaux autres navigateurs, dont bien sûr MSIE, Safari et Opera. On sait en effet combien MSIE diffère des standards en termes de CSS et aussi (quoique dans une bien moindre mesure) de JavaScript.


La console JavaScript

Plusieurs navigateurs proposent une console JavaScript. Il s’agit d’une fenêtre qui recense les notifications de l’interpréteur JavaScript : erreurs, avertissements et messages d’information éventuels.

Certains navigateurs fournissent d’ailleurs un accès JavaScript à cette console, au travers d’un objet global dédié, ce qui permet à vos scripts d’y placer un message plutôt que de recourir au traditionnel mais pénible appel à alert (lequel vous propulse vite dans un tourbillon de clics).

Dans Mozilla Firefox

Dans Mozilla Firefox, la console est accessible via le menu Outils>Console JavaScript. La console ressemble à ceci :

bf1.jpg

Fig.1 : La console JavaScript de Mozilla Firefox.



Notez qu’elle reçoit aussi des notifications de l’analyseur CSS (la plupart des messages d’erreur qu’on y rencontre sont souvent dus à des hacks CSS) et qu’elle conserve les notifications reçues par le passé : elle ne s’efface que manuellement, en cliquant sur le bouton Effacer de sa barre d’outils. Les quatre premiers boutons permettent de filtrer l’affichage suivant le type de message.
Par ailleurs il est possible d’y taper un fragment de code pour évaluation immédiate (mais sur une seule ligne), à l’aide de la zone de saisie en face du bouton Évaluer :

bf2.jpg

Fig.2 : évaluation directe dans la console JavaScript.



Dans Opera
Opera fournit également une excellente console JavaScript, qui est en fait incluse dans la console d’erreurs, accessible via Outils>Avancé>Console d’erreur. Cette console récupère les erreurs de tous bords (comme CSS, JavaScript, SVG, HTML), et fournit de nombreux détails sur chacune. Des options de filtrage en bas à gauche de la liste des erreurs permettent de ne voir, par exemple, que les erreurs JavaScript.

bf3.jpg

Fig.3 : La console d’erreurs d’Opera, ici filtrée sur JavaScript.



Vous trouverez de nombreux détails sur le débogage de JavaScript dans Opera à l’adresse http://my.opera.com/community/dev/jsdebug/.

Dans Safari

Safari fournit à partir de la version 1.3 un menu caché nommé Debug, qu’on peut activer en tapant dans un terminal (quand Safari n’est pas lancé) :

defaults write com.apple.Safari IncludeDebugMenu 1


L’astuce figure dans la FAQ de Safari sur le site d’Apple, à la question 14 : http://developer.apple.com/internet/safari/faq.ht-ml#anchor14.
Une fois le menu Debug disponible, on y trouve une pléthore d’options, dont Show JavaScript console (Maj+Cmd+J).

bf4.jpg

Fig.4 : La console JavaScript « cachée » de Safari.



Dans Konqueror
Konqueror propose également une console JavaScript, au sein de son débogueur JavaScript rudimentaire. Celui-ci n’est pas activé par défaut : il faut aller dans Configuration> Configurer Konqueror>Java & JavaScript>JavaScript et cocher les options Activer le débogueur et Rapports d’erreur. Le débogueur est alors accessible depuis le menu Affichage>Débogueur JavaScript (sur une page web, pas sur la page d’accueil spéciale de Konqueror).

bf5.jpg

Fig.5 : La console JavaScript dans le débogueur rudimentaire de Konqueror.



Dans MSIE
MSIE 6 ne fournit pas de console JavaScript. Le mieux que l’on puisse faire consiste à cocher l’option permettant de voir une boîte de dialogue à chaque erreur de script, afin d’avoir quelques détails. Mais c’est pénible, et c’est quoi qu’il en soit une bien maigre consolation. Si vous souhaitez toutefois y recourir, l’option est dans Outils>Options Internet>Avancé>Navigation>Afficher une notification de chaque erreur de script. Il existe tout de même un débogueur téléchargeable à part : consultez l’annexe D pour plus de détails.


Venkman, le débogueur JavaScript

Je n’entrerai pas dans les détails des différents débogueurs JavaScript, mais nous allons examiner ensemble les bases du débogueur JavaScript conçu pour l’univers Mozilla (navigateurs Mozilla et Firefox, et même le logiciel de courrier électronique Thunderbird !) : Venkman. Dans leur tradition de clins d’oeil au film Ghostbusters, l’équipe Mozilla a en effet nommé son débogueur d’après le personnage de Bill Murray.
Ce débogueur se télécharge à part, sous forme d’une extension. La page officielle est http://www.mozilla.org/projects/venkman/. Le téléchargement est par ailleurs disponible sur le site officiel des extensions et thèmes pour les produits Mozilla, à l’adresse https://addons.mozilla.org/firefox/216/. Vous pouvez également tenter l’installation de sa version francisée : http://extensions.geckozone.org/Venkman. Mais à l’heure où j’écris ces mots celle-ci n’a pas revu sa définition de compatibilité à la hausse, et refusera de s’installer sur un Firefox 1.5.0.1 ou ultérieur (et je ne saurai trop vous conseiller d’être à jour, car il s’agit de mises à jour de sécurité).
Il est certes possible d’ajuster manuellement l’information dans le paquet, mais c’est une manipulation technique un peu délicate, qui n’entre pas vraiment dans le cadre de ce chapitre. J’utiliserai donc pour ce qui suit la version anglaise.
Une fois l’extension installée, elle est accessible par le menu Outils>JavaScript Debugger. Le débogueur est une application un peu lourde, et mettra quelques secondes à s’afficher. Attention ! Sous Firefox 1.5, il semble qu’une fois fermé, il ne puisse plus être ouvert de nouveau à moins de redémarrer Firefox. Peut-être ce bogue aura-t-il disparu à l’heure où vous lirez ces lignes.

bf6.jpg

Fig.6 : Venkman, le débogueur JavaScript.



L’interface est composée comme suit :
• En haut, le menu et la barre d’outils. À noter :
• Le menu File permet notamment d’ouvrir une autre page ou un autre script, de sauvegarder et de restaurer l’état des points d’arrêt (breakpoints) et des vues espion (watches).
• Le menu Debug contient les mêmes commandes que la barre d’outils, mais aussi des sous-menus Error Trigger et Throw Trigger, qui permettent de configurer le débogueur pour qu’il agisse en cas d’erreur ou de lancement d’exception.
• Dans la barre de gauche, pas moins de six vues distinctes, groupées en trois séries d’onglets (mais vous pouvez ajuster comme bon vous semble). On peut afficher ou masquer les vues à loisir, par exemple à l’aide du menu Views>Show/Hide.
• La vue Loaded Scripts affiche tous les scripts chargés ; on est souvent désarçonné par l’apparition des fichiers de script de Firefox lui-même (par exemple prefcalls.js). Heureusement, les scripts de votre page apparaissent en haut (ici demo.js).
• La vue Open Windows affiche les fenêtres Firefox ouvertes, ce qui vous permet de basculer de l’une à l’autre pour choisir les pages et scripts à déboguer.
• La vue Local Variables affiche les variables locales alors que vous êtes en train d’exécuter un pas à pas dans une fonction. Cela vous évite d’avoir à définir des vues espion pour ces variables.
• La vue Watches affiche les vues espion : des expressions quelconques que vous avez saisies et qui sont évaluées à chaque pas de votre débogage interactif.
• La vue Breakpoints liste les points d’arrêts.
• La vue Call Stack affiche la pile d’appels, c’est-à-dire la séquence des appels imbriqués de fonction qui ont amené à la ligne en cours d’exécution.
• Sur la droite, deux vues se partagent l’espace.
• En haut, la vue Source Code, qui affiche le code source du script sélectionné dans la vue Loaded Scripts, et dans laquelle se passe le pas à pas. C’est aussi là qu’on manipule les points d’arrêt.
• En bas, se trouve la vue Interactive Session, console JavaScript améliorée, dotée d’un interpréteur de commandes spécial (commandes démarrant par /). Une liste détaillée des commandes est disponible en cliquant sur le lien qui s’affiche par défaut dans cette console, ou en naviguant directement sur l’URI x-jsd:help.

Voici un exemple basique d’utilisation de Venkman, qui est très puissant, mais un peu fouillis, il faut bien le reconnaître. Reprenez l’exemple de code pour les fonctions listant dynamiquement leurs arguments. Je vous conseille de récupérer les fichiers disponibles dans l’archive des codes source pour cet ouvrage, disponible en ligne sur le site des éditions Eyrolles.

Ouvrez le fichier index.html, puis ouvrez le débogueur JavaScript. Vous devriez obtenir une vue équivalente à celle de la figure 6. Fermez la vue Open Windows, qui ne vous sert à rien, faites glisser vers le bas la séparation entre Source Code et Interactive Session, et videz la session (clic droit dessus ou menu View, option Clear Interactive Session). Double-cliquez à présent sur le script demo.js dans la vue Loaded Scripts.
Vous devriez obtenir le résultat suivant :

bf7.jpg

Fig.7 : Notre script chargé dans un Venkman plus utilisable.



Posez à présent un point d’arrêt dans la fonction showArgs1 : double-cliquez sur le nom de la fonction dans la vue Loaded Scripts, et cliquez dans la marge du code source sur le tiret en face de la ligne 20, ligne soumise à la boucle : vous obtenez un B blanc sur fond rouge, qui indique un point d’arrêt.

bf8.jpg

Fig.8 : Le point d’arrêt sur la ligne 20.



Reprenez à présent la page web et cliquez sur le bouton Première version. La fonction showArgs1 est appelée, le point d’arrêt est déclenché, on bascule dans Venkman, et le débogueur passe en mode pas à pas.

bf9.jpg

Fig.9 : Notre débogueur en mode pas à pas.



Remarquez plusieurs points :
• La barre d’outils est désormais complètement active, puisque les commandes de pas à pas sont désormais pertinentes.
• La vue Local Variables liste la portée courante (scope), avec vos variables index et msg, ainsi que le sens actuel de this (on voit qu’il s’agit là de l’objet window, et non du bouton sur lequel on a cliqué).
• La ligne courante est mise en exergue (en jaune sur votre écran).
• La vue Interactive Session a également signalé l’arrêt, et a affiché un contexte de deux lignes autour de la ligne concernée. Cette vue est un véritable débogueur en ligne de commande, pour les habitués d’outils comme gdb notamment.

Nous allons faire un pas à pas de survol (n’entrant pas dans le corps de nos fonctions appelées), ce qu’on appelle en anglais un step over. Cliquez sur le bouton Step over ou appuyez sur F12 : vous passez à la ligne suivante, qui est la reprise de la boucle. Une série d’appuis vous mène à travers les tours de la boucle, et vous pouvez suivre dans la vue Local Variables l’évolution des variables index et msg. Vous arrivez finalement au alert, qui s’exécute. Repassez ensuite au niveau supérieur, dans la fonction anonyme attachée à l’événement click du bouton. Pour continuer l’exécution normalement, plutôt qu’en pas à pas, utilisez la commande Continue ou la touche F5. Il s’agit ici de l’utilisation la plus courante du débogueur.
Quelques petites précisions pour finir :
• Les points d’arrêt peuvent être configurés très finement, en précisant par exemple une condition pour leur déclenchement, ou un nombre de passages (trigger count) avant qu’ils ne se déclenchent. On peut bien entendu combiner les deux. Pour cela, faites un clique droit sur un point d’arrêt (par exemple sur le B dans la marge) et choisissez en bas du menu surgissant l’option Breakpoint properties :

bf10.jpg

Fig.10 : Propriétés d’un point d’arrêt : que de possibilités...



• Lorsqu’on est temporairement gêné par un point d’arrêt, plutôt que de le supprimer, il est préférable de le désactiver. Il suffit pour cela de cliquer à nouveau sur le B : il passe alors en F (Future breakpoint). Pour le réactiver, cliquez sur le bouton droit et choisissez Set breakpoint.
Venkman dispose d’une documentation exhaustive : n’hésitez pas à la consulter pour en découvrir tous les secrets si vous avez des besoins plus complexes à réaliser.


Firebug, le couteau suisse du développeur Web 2.0

Venkman est souvent jugé trop lourd, ou trop complexe, pour un usage classique. Il se trouve que depuis quelques temps, on dispose d’une alternative, au travers d’une des nombreuses fonctions de l’extension Firebug.
Pour les développeurs web, Firefox propose une pléthore d’extensions sympathiques.
Les deux plus populaires, et de loin, sont la Web Developer Toolbar de Chris Pederick, et Firebug de Joe Hewitt.
La première nous permet de triturer la page elle-même, en affichant quantité d’informations utiles et en activant ou désactivant facilement des scripts, feuilles de styles, etc. Elle est immensément utile, mais ne concerne pas spécialement JavaScript ou le DOM.
Firebug fournit une série d’outils dédiés au débogage, comme son nom l’indique.
Nous aurons l’occasion de l’utiliser au chapitre 3 pour examiner le DOM de la page (inspecteur DOM alternatif ), ainsi qu’aux chapitres 5 et 6 pour examiner le détail de nos requêtes Ajax (une fonctionnalité des plus précieuses !). Pour l’instant, nous allons examiner ses capacités de débogueur JavaScript.
Firebug est installable depuis http://addons.mozilla.org/firefox/1843/. Une fois l’extension installée et Firefox en mode redémarrage, vous disposez en bas de vos pages d’un petit indicateur. Il est gris quand vous n’êtes sur aucune page (par exemple, sur la page vierge d’accueil que vous avez peut-être configurée), vert quand vous êtes sur une page sans erreur JavaScript, et rouge dans le cas contraire.

bf11.jpg

Fig.11 : Les états de l’indicateur Firebug.



En cliquant sur cet indicateur, vous ouvrez la barre Firebug, placée en bas de votre page. On peut aussi l’ouvrir et se placer directement sur la ligne de commande de la console JavaScript en pressant Ctrl+Maj+L. Firebug renferme en effet une console JavaScript fort pratique, interactive, plus utile (et plus jolie !) que celle fournie en standard dans Firefox. Le menu Options de la console Firebug permet de préciser ce qu’on souhaite y voir apparaître (voir figure 2-14). Par défaut, il affiche les erreurs JavaScript (mais pas les avertissements) ainsi que les erreurs XML.
L’ongletDebugger propose un débogueur tout simple, mais largement suffisant dans la plupart des cas. Attention ! Deux débogueurs ne peuvent pas cohabiter dans Firefox. Si vous souhaitez utiliser celui de Firebug, désinstallez d’abord Venkman et relancez Firefox.
Chargez donc à nouveau notre exemple de fonction listant ses arguments, et cliquez sur l’onglet Debugger. Vous y trouverez le code source de votre script. Firebug ne liste que les scripts chargés par la page, ce qui est plus pratique que le comportement de Venkman. Une liste déroulante Scripts, en bas du débogueur, permet de choisir le script voulu, ce qui est inutile ici. Faites défiler le script pour retrouver la ligne 20, et cliquez dans la marge à gauche du numéro de ligne : vous venez de définir un point d’arrêt. Cliquez à présent sur le bouton Première version de notre page, et le point d’arrêt se déclenche (voir figure 2–15).
bf12.jpg

Fig.12 : La console Firebug et son menu Option.


bf13.jpg

Fig.13 : Déclenchement du point d’arrêt dans le débogueur de Firebug.


Remarquez qu’une vue supplémentaire est immédiatement apparue sur la droite : les variables locales. Par ailleurs, juste en dessous, vous trouverez la pile d’appels sous forme d’une liste déroulante. Pour progresser en pas à pas de survol (step over), utilisez le premier bouton à flèche coudée ou Ctrl+Alt+Maj+Droite (une véritable combinaison de touches !).
Les autres raccourcis sont décrits dans le menu Outils>Firebug, et sont logiques malgré leur complexité : ils débutent tous par Ctrl+Alt+Maj, après quoi Droite fait un step over, Bas un step into (entre dans nos fonctions lorsqu’on les appelle) et Haut un step out (termine la fonction courante et en ressort).
Pour simplement continuer l’exécution jusqu’à la fin (ou jusqu’au prochain point d’arrêt), cliquez sur la flèche bleue ou faites Ctrl+Alt+Maj+Gauche.
Firebug regorge de possibilités, et en termes de JavaScript, il ne s’arrête pas là. Si vous souhaitez simplement permettre à vos scripts de vous signaler quelque chose pendant le développement, Firebug met à votre disposition un objet global nommé console, avec cinq méthodes : error, warn, info, debug et log. Elles envoient le message passé en paramètre, avec le bon type, dans la console de Firebug (voir figure 14).

Par ailleurs, Firebug met à disposition toute une série de méthodes pour vos tests unitaires, appelées assertions (le terme est familier à quiconque a déjà fait des tests unitaires, dans quelque langage que ce soit). On trouve aussi des méthodes pour aider à la mesure du temps d’exécution de fragments de code, à l’affichage de textes à paramètres formatés, ou à l’examen d’objets.

Enfin, sachez que des fonctions courtes, dans le style de Prototype, sont disponibles pour aller rapidement chercher un élément par son ID, faire une extraction CSS ou encore une extraction XPath, directement depuis la console !
Vous en saurez davantage sur la page de documentation de ces possibilités dans Firebug : http://joehewitt.com/software/firebug/docs.php.

bf14.jpg

Fig.14 : Exemples d’utilisation de l’objet console avec Firebug.


Pour aller plus loin

Livres

JavaScript : The Definitive Guide (5e édition)
David Flanagan
O’Reilly Media, août 2006, 1 018 pages
ISBN 0-596-10199-6
La référence historique, avec tous les détails du langage, et une pléthore d’exemples.
Existe aussi en français dans sa 4e édition :


JavaScript (4e édition)
David Flanagan
O’Reilly, septembre 2002, 955 pages
ISBN 2-841-77212-8

JavaScript Bible (5e édition)
Brendan Eich
Wiley Publishing, mars 2004, 1 236 pages
ISBN 0-764-55743-2
L’autre référence, qui possède l’avantage d’être écrite par l’inventeur du langage, lequel continue de piloter son évolution. En revanche, ne dispose a priori pas d’une version française...
Gestion
Réduire
GÉRER LA CHAîNE LOGISTIQUE
Une demande implicite de « SCM »
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Souvent annoncée comme déclinante dans les environnements grands comptes, la gestion de la chaîne logistique, ou SCM (Supply Chain Management), connaît un regain de jeunesse sur le segment des PME. Celles-ci n’expriment cependant pas clairement leurs besoins dans le domaine, s’orientant vers des demandes plus générales. Fonctionnellement, de nouveaux besoins se font jour. Les éditeurs y répondent avec une « normalisation » de leur réponse technique sur une architecture de services et des méthodologies de mises en œuvre renouvelées.

Le concept d’optimisation de la chaîne logistique est assez récent. Il a pris de l’ampleur à la fin du dernier siècle et a véritablement explosé au début des années 2000, pour faire la fortune d’acteurs aujourd’hui un peu oubliés comme I2. Les grandes entreprises s’en sont emparées pour apporter une plus large visibilité sur une chaîne de valeur transversale dans l’entreprise en reliant les fournisseurs à l’entreprise et au client, voire au client du client. Après cette vague d’adoption rapide, le concept est aujourd’hui un peu en perte de vitesse avec des ajustements sur l’exécution ou la planification de cette optimisation.


Un contexte spécifique

isabellesaintmartin.jpg
Isabelle Saint-Martin, chef de produit NAV chez Microsoft Business Solutions.
Pour les PME, le contexte est un peu différent. Opérant souvent dans un environnement très concurrentiel, les PME s’insèrent dans la chaîne logistique des grands comptes donneurs d’ordre et se doivent de suivre le mouvement pour répondre aux desiderata ou aux « diktats » de leurs clients, très exigeants en termes de délais et de contrôle qualité.
Cependant, aucun patron ou responsable de système d’information d’une PME n’exprimera spontanément une demande sur des besoins de SCM ! Il cherchera plutôt à réduire des stocks, à maximiser les délais, à réduire des cycles de livraisons ou à mieux planifier la demande de ses clients.
Isabelle Saint-Martin, chef de produit NAV chez Microsoft Business Solutions, le confirme : « Ces questions passent à 5 000 mètres au-dessus de la tête des patrons de PME. Cependant, nous avons énormément de projets sur le domaine même s’ils ne sont pas exprimés comme tels. Ils ne connaissent d’ailleurs pas ce concept de SCM comme nous l’entendons. Une des principales raisons ou besoins avancés sont des obligations vis-à-vis de clients. Là, les PME sont très en éveil. »
Philippe Duc, chez IBS, un éditeur suédois, le dit autrement : « Dans les cahiers des charges, les clients ou prospects expriment des besoins très terrain et peu orientés vers les concepts ou les technologies. » Raphaël Lallemand, chez Oracle, le constate aussi : « Les clients ont un peu de mal à exprimer un message clair sur le besoin. »


Des besoins analogues aux grands comptes ?

PhilippeDuc.jpg
Philippe Duc est responsable en France de l'offre IBS Enterprise, chez l'éditeur suédois IBS.
Selon les besoins plus ou moins exprimés, les projets auront une coloration plus ou moins forte dans le domaine de la SCM. Ceux-ci peuvent d’ailleurs être très complexes. Isabelle Saint-Martin le souligne : « Le deuxième catalyseur de projet est la rentabilité. Pour des raisons économiques, l’artisanat dans le domaine logistique, c’est fini. La gestion des flux de marchandises est complexe. Rien qu’en approvisionnement, les besoins démontrent que les PME ont des besoins de la maturité de grandes entreprises. Si les contraintes sont fortes, les PME doivent rester rentables et sécuriser les marges, réduire les coûts unitaires et logistiques. »
Philippe Duc va dans le même sens et constate que les PME « doivent gérer des processus aussi complexes que dans les grandes entreprises ». Ainsi, elles gèrent souvent un nombre plus grand de références. Olivier Rouvières, d’Infor, un éditeur américain, discerne lui des similitudes dans les processus de gestion d’entrepôts. Ces besoins proviennent aussi dans certains secteurs d’activité de contraintes spécifiques liées aux échanges. L’automobile, l’aérospatial ou la distribution en sont des exemples connus.


Une seule ou plusieurs supply chains ?

Dans la gestion de la chaîne logistique, l’aspect métier est un des plus importants. Il n’existe rien de commun entre un fournisseur de la grande distribution et un équipementier automobile. Encore moins entre un mareyeur de Rungis et un fournisseur d’Airbus Industrie !
Leurs métiers, leurs méthodes, leurs process sont différents. Chaque client peut sembler unique et leur manière de s’approvisionner, de gérer la livraison au client est spécifique. Les éditeurs de solutions doivent s’adapter à ce contexte métier. Il est même souvent différenciateur de l’offre.
Isabelle Saint-Martin précise : « Selon la spécificité métier de l’entreprise, les supply chains sont différentes. Elles diffèrent selon que le client est fabricant, négociant et en fonction les canaux de distribution et d’achat. » Olivier Rouvière ajoute : « Les clients ne cherchent pas un produit qui fait tout, mais un produit qui répond à un problème spécifique. » Cet aspect propre à la gestion de la chaîne logistique impose aux éditeurs d’avoir des consultants fin connaisseurs des métiers de leurs clients, ou des problématiques proches pour certains secteurs, comme la gestion de la commande ouverte dans l’automobile ou la distribution. Olivier Rouvière précise : « Le côté difficile avec les PME, c’est qu’il faut faire beaucoup de relationnel. Le consultant doit être proche des clients pour développer une relation de confiance dans la continuité. Le rôle du consultant est de dynamiser l’équipe du côté client, de bien percevoir les besoins et de parler le même langage qu’eux. »
Les situations sont tellement diverses que les éditeurs se doivent de s’adapter et apporter des réponses multiples, même si certaines fonctions sont évidemment communes. Ces besoins structurent les produits du marché à la fois fonctionnellement et techniquement pour s’adapter aux PME, en tenant compte du manque de ressources humaines et de budget de ces entreprises.


Le TOP 5 de la gestion de la chaîne logistique en 2005

schem1.jpg

Depuis cette étude, SSA a été racheté par Infor. Ce dernier éditeur est devenu de ce fait le troisième acteur du secteur.

Source AMR Research (septembre 2006)




Un socle technologique banalisé

Techniquement, les produits suivent une tendance marquée par une réécriture sur des architectures techniques reposant sur une architecture de service (SOA) et une restitution sur un environnement client riche. Cette banalisation de la plate-forme technique s’explique pour plusieurs raisons.
En dehors de la feuille Excel, qui reste le premier outil utilisé dans la planification de la chaîne logistique en PME, celles-ci utilisent beaucoup, pour répondre à leurs besoins logistiques, des outils globaux tels que les ERP. Ces derniers se normalisant sur ces plates-formes SOA, il est normal de retrouver cette tendance dans les outils de SCM. Car plus que des outils spécifiques, les PME se servent des fonctions SCM des ERP pour résoudre leur problème. Cette tendance technique est d’ailleurs très éloignée des préoccupations des dirigeants de PME. Le concept et la mise en œuvre de telles architectures restent encore très floues pour ce segment de marché. Pour éviter de se poser des questions, les PME se tournent vers des intégrés qui répondent à leurs différents besoins.
De l’autre côté du miroir, les éditeurs doivent à la fois, pour certains, intégrer facilement les différents produits ou modules de leurs gammes (Oracle, Infor) ou pouvoir s’intégrer facilement avec des outils spécialisés dans le domaine ou d’autres progiciels (Microsoft, SAP). Le choix de cette architecture a aussi l’avantage d’autoriser cette intégration forte par un couplage lâche pour ces logiciels. Ainsi, Oracle propose, pour répondre aux besoins des PME en SCM, soit JD Edwards ou EBS (Enterprise business Suite), selon les environnements système ou les besoins du client. Ces deux produits ont vocation à converger vers 2013 sur la plate-forme Fusion de l’éditeur, qui regroupera en une seule suite le meilleur des progiciels acquis par Oracle dans le domaine. Peoplesoft en fera aussi partie.

SchemaChaine.jpg
Les différents éléments entrant dans le domaine de la chaîne logistique.


Le besoin d’interopérabilité est encore plus marqué pour Infor qui, à la suite du rachat de SSA, se trouve à la tête d’un portefeuille très large d’applications spécialisées sur le domaine du manufacturing et de la gestion de la chaîne logistique : Baan, Mapics, SSA, Infor… Pour faire coopérer ces différents progiciels, l’architecture SOA semble la panacée. Cette tendance se retrouve aussi dans les logiciels spécialisés. Ainsi, les acteurs du MES (Manufacturing Execution Systems), comme Wonderware ou Rockwell, ont rebâti leurs plates-formes sur ces architectures pour renforcer les échanges d’information utiles entre ces systèmes et les ERP dans le processus de fabrication qui, indirectement, entrent en jeu dans la gestion de la chaîne logistique, que ce soit en mode push dans un contexte de fabrication tiré par la commande, ou en planification de la SCM et de l’ordonnancement de la production.
Du côté de Microsoft, la convergence avance à grands pas. Les prochaines versions des logiciels NAV et AX en constitueront le premier pas. Ces versions seront présentées en cours d’année. Une dès le printemps et une autre en novembre qui donnera le départ d’une fusion des différents ERP de Microsoft en un seul produit.


Des fonctionnalités en évolution

Sur le plan fonctionnel, les produits de SCM évoluent en suivant l’évolution des besoins des PME. Ils peuvent se classer autour de deux grands axes : l’exécution et la planification. Le premier s’attache au contrôle et à la gestion des opérations en lien avec la supply chain. Le deuxième constitue le volet prévisionnel sur des tendances plus ou moins longues, selon le métier de l’entreprise, sur la demande client, les approvisionnements, ou, sujet beaucoup plus sensible, la sécurisation de la chaîne logistique pour éviter la rupture de livraison ou des matières nécessaires à la fabrication.
Dans le domaine de l’exécution, les demandes actuelles s’orientent vers une plus grande collaboration entre les intervenants sur la chaîne logistique. Philippe Duc relève une demande importante sur les portails collaboratifs avec les fournisseurs ou les clients. Isabelle Saint-Martin le confirme : « C’est aujourd’hui un sujet important pour les PME, qui sont très intéressées par les EDI de nouvelle génération. Ces demandes enrichissent désormais les demandes des PME vers plus de collaboration comme par exemple de rendre accessible une commande d’achat sur une plate-forme pour qu’elle soit consultable à tout moment. » Philippe Duc relève aussi ce besoin mais reste plus réservé : « Plus le nombre de fournisseurs est important et plus l’EDI se révèle complexe. »

GestionChaineLogistique.jpg


Outre la collaboration, de nouveaux besoins se font jour de manière plus factuelle comme la gestion des ressources dans les entrepôts, les échanges « back to back », la gestion de la demande, la gestion des transports… D’autres catalyseurs existent comme les contraintes légales de traçabilité dans certains secteurs, dont l’agroalimentaire.
Raphaël Lallemand, chez Oracle précise : « Il existe des aspects cycliques qui font évoluer les besoins ou les attentes. La plupart du temps, nous voyons des demandes pour un système intégré plus complet avec des éléments de ressources humaines ou de paie dans des projets de refonte d’ERP. »
Dans le domaine, si les produits proposés par les éditeurs d’ERP suffisent à couvrir les fonctions principales, il est des cas métier spécifiques où les solutions ont besoin d’un complément par un logiciel spécialisé. Ainsi, Microsoft propose en partenariat des solutions spécifiques de Manhattan ou de TXT, des logiciels spécialisés dans la SCM ou la gestion des entrepôts.

L’éditeur de Redmond s’appuie aussi sur des add-ons développés par des partenaires sur des fonctions très pointues développées sur la plate-forme de Microsoft. « Cela permet de ne pas réinventer la poudre à chaque projet », explique Isabelle Saint-Martin.
Oracle procède aussi avec des add-ons, mais ceux-ci sont certifiés par l’éditeur et s’intègrent peu à peu dans le standard.
D’autres éditeurs, comme IBS ou Generix, se spécialisent sur certains secteurs où ils offrent des fonctions très spécialisées. Le premier détient une place enviable sur le marché de la distribution pharmaceutique et le second s’est totalement orienté vers le monde de la distribution. On pourrait citer aussi Hardis, Dynasys…
L’axe de la planification est une autre voie d’entrée pour les éditeurs de SCM. Le premier moteur de l’installation de solution de planification de la chaîne logistique reste « l’apport d’une différenciation de service », comme le précise la chef de produit Microsoft, avant la recherche d’avantages concurrentiels. Philippe Duc précise que les projets dans le domaine débutent avec un petit décalage :
« On commence souvent par de l’exécution, puis on enchaîne sur la planification. Cela démarre après la phase de stabilisation de l’organisation. »
De plus, ces projets de planification à plus ou moins long terme demandent du temps. Olivier Rouvière souligne le manque de compétences et de ressources dans le domaine dans les PME : « Le plus souvent, vous trouvez une personne qui s’occupe de la planification. Pourtant, les PME ont souvent des besoins de grandes entreprises. » Il précise par ailleurs qu’Infor détient plus de client sur ce segment que dans l’exécution. Le besoin provient aussi du contrôle et de la gestion nécessaire de ce processus complet. Sur ces fonctions pointues, Microsoft met l’offre de TXT en avant. Philippe Duc ajoute : « La volonté d’optimiser les ressources de la supply chain est très présente. Une tendance parfois difficilement perceptible est le contrôle et le pilotage en temps réel de l’exécution, de l’aide à la décision. »
Le but de ces outils est d’optimiser aussi bien les flux que l’activité budgétaire de la chaîne logistique. Dans la dernière version de n.Skep Master Planning de Dynasys, les simulations sont possibles et permettent de mesurer les impacts d’un changement ou d’un événement dans la chaîne logistique.


De nouveau modes d’utilisation

L’ASP semble aujourd’hui devenir un mode d’utilisation possible pour le SCM. Certains grands éditeurs le proposent déjà. Microsoft, par exemple, propose ses solutions NAV et AX sous cette forme locative pour les clients qui le désirent. Isabelle Saint-Martin précise : « Les demandes sont timides mais en augmentation. Actuellement, tout le monde a une offre mais personne n’a réellement vu la demande. Les freins tiennent surtout à des raisons psychologiques plus qu’à des réalités. » Même son de cloche chez IBS, Philippe Duc ajoute : « Nous avons eu une ou deux demandes. Nous le proposons sur les nouvelles versions. Un client qui a des data centers au Portugal et en Pologne est intéressé. Certains éditeurs le poussent, on sent un frémissement. »


Des projets plus courts

Pour s’adapter aux besoins des PME, les éditeurs ont aussi consacré beaucoup d’efforts sur la mise en œuvre des projets dans le secteur de la gestion de la chaîne logistique. Il est vrai que le temps économique et de l’entreprise, avec ses besoins de réactivité, ne sont plus ceux des projets « tunnels » sans fin que l’on pouvait voir dans les années 90 au sein des grandes entreprises. De plus, les PME souhaitent des projets créant rapidement de la valeur pour, à la fois, obtenir un avantage concurrentiel ou de service tout en sécurisant marges et qualité. Elles désirent aussi apporter la preuve rapide de l’apport de l’outil aux utilisateurs pour emporter l’adhésion au logiciel par leurs employés.
Les éditeurs optimisent donc les mises en œuvre, soit par des paramétrages, soit en poussant très loin la phase d’audit et de préparation du projet. En moyenne, les intervenants interrogés lors de ce dossier s’accordent à parler de projets ne dépassant pas quatre mois. La moyenne tournant autour de 100 jours. Philippe Duc ajoute : « Cela implique une spécialisation des consultants sur des problématiques proches dans différents secteurs d’activité. On utilise aussi les préparamétrages sur les questions de TVA, par exemple. D’ailleurs l’effort pour réduire le temps d’implémentation est constant. »


CSC se penche sur la supply chain dans le monde
schem2.jpg

À quelle fréquence votre entreprise révise-t-elle ou met-elle à jour son plan stratégique de la chaîne logistique ?
À l’automne dernier, le cabinet de conseil CSC s’est intéressé aux tendances dans les grandes entreprises sur le SCM : 64 % des entreprises interrogées rapportent des réductions des coûts logistiques de 1 à 10 % et 10 % indiquent avoir réalisé des économies de 11 à 20 %. Ces réductions de coûts semblent de plus autoriser des augmentations de revenus, et plus de la moitié déclarent des augmentations de revenus compris entre 1 et 10 %. Combinés, ces chiffres apportent entre 5 et 8 points de profit au bilan de ces entreprises. L’étude montre aussi que c’est en Europe et en Asie que l’alignement entre la chaîne logistique et la stratégie d’entreprise est le meilleur. Par ailleurs, le sondage met en exergue les risques et la vulnérabilité de cette chaîne logistique. Seuls 40 % des entreprises interrogées ont une solution de secours de cette chaîne logistique en cas d’interruption importante.