vendredi 30 septembre 2016
 
L'INFORMATICIEN N°40
Numéro d'octobre 2006

INF40_001.gifCe numéro d'octobre est consacré à la fascination qu'exercent les "blades" sur les habitués des salles climatisées. Preuve en est le regard rêveur de notre homme à lunette sur la couverture : il n'en croit pas ses yeux, mon dieu, c'est bien une Blade. Vous découvrirez au fil du dossier pourquoi ces blades sont en passe de dominer le monde en plein essor sur le marché des serveurs. Vous y trouverez également un guide pour réduire vos gaspillages d'impression, ainsi qu'une réponse à cette question qui peut vous brûler les lèvres à la lecture du sommaire : mais à quoi peut donc bien servir une montre USB ? la réponse peut se résumer en six lettres, autres abréviations ésotériques du monde de l'informatique : SSL VPN. Enfin, pour les gestionnaires de PME, un large dossier a été consacré aux solutions de Gestion de Parc. Bonne lecture !
Bonnes Feuilles
Réduire
ACCES WEB ET EXTRANETS SECURISES
Quel avenir pour SSL VPN ?

Les VPN s’appuyant sur le protocole sécurisé SSL sont de plus en plus fréquents en entreprise. Un ouvrage de Joseph Steinberg et Timothy Speed, deux experts en sécurité informatique, fait le point sur cette technologie. Dans son chapitre 8, il présente l’avenir de cette technologie. En voici un large extrait.


11933.jpgSSLVPN de Joseph Steinberg et Timothy Speed, adapté par Benjamin Sonntag, Editions Eyrolles, juillet 2006, 29 €, 220 pages.
Bien que la technologie SSLVPN ait énormément évolué depuis sa création, elle n’a sûrement pas encore atteint son potentiel maximal. Le développement de fonctionnalités utiles est encore possible. Des améliorations techniques pourront montrer les capacités d’assimilation et de fiabilité de SSLVPN, et ce bien au-delà de ce qu’il est possible de faire à ce jour. De nombreux produits SSLVPN sont partis des mêmes fonctionnalités de base, mais les constructeurs correspondants ont suivi des chemins très variés, ce qui donnera à l’avenir des produits sensiblement différents. De plus, de nouvelles avancées technologiques sont en cours à l’heure où nous écrivons ce livre. Ces améliorations vont nous permettre de prévoir quelque peu les nouveautés à attendre dans le monde du SSLVPN. Dans ce chapitre, nous allons étudier les tendances qui se dégagent autour des produits et constructeurs de solutions SSLVPN. Ces tendances nous permettront par ailleurs d’émettre quelques hypothèses sur l’avenir de SSLVPN. Des fonctionnalités standardisées. Il est important de comprendre que si les premiers logiciels mettant en œuvre SSLVPN proposaient des fonctionnalités très différentes, les produits disponibles à ce jour proposent des listes de fonctions très proches. Cela s’avère particulièrement vrai lorsque l’on compare les fonctions proposées par ces produits en théorie, c’est-à-dire sur les prospectus publicitaires. Dans le cadre de la stabilisation de l’offre de chaque constructeur, le facteur majeur a été de répondre à la demande du marché, ce qui revient souvent à copier les fonctions de produits concurrents. À force de copies mutuelles, la liste des fonctions à proposer pour mériter le nom de service «SSLVPN» devient de plus en plus standardisée et claire au fil du temps. Cependant, comme nous l’avons montré dans les chapitres précédents, la technique utilisée pour mettre en œuvre chaque fonction peut varier du tout au tout d’un produit à l’autre. Ces différences ont donc un impact non négligeable sur la vitesse de réaction d’un constructeur aux nouvelles demandes. Par conséquent, et de plus en plus, si vous souhaitez déployer une solution d’accès distant SSLVPN, il faut porte rune attention particulière aux fonctions proposées par un produit donné, ainsi qu’aux technologies utilisées pour les mettre en œuvre; cette tâche n’est pas aisée si l’on se contente des prospectus marketing des constructeurs respectifs.

Interfaces des systèmes

Un autre facteur qu’il ne faut pas oublier lorsque vous évaluez un produit SSLVPN est la tendance à créer des interfaces de communication, soit pour ajouter des fonctions au service SSLVPN, soit pour interagir avec des systèmes tiers. Ces interfaces sont de trois types: •interface tierce de gestion de la sécurité;
•interface de gestion d’applications;
•interface de création de journaux d’activité et de rapports.

Interfaces tierces de gestion de la sécurité

Très tôt dans l’histoire des systèmes SSLVPN, ces produits ont disposé d’interfaces de communication et d’échange avec des services tiers permettant de gérer la sécurité des systèmes. Ces interfaces d’échanges rentrent dans plusieurs catégories:

Systèmes d’identification

Une interface entre SSLVPN et un système d’identification permet d’utiliser l’infrastructure d’identification existante, qu’elle soit simple ou forte (utilisation de RSA SecureId par exemple). Nous avons détaillé l’utilisation de ces systèmes d’identification au chapitre 4.
Bien que présentes dès les premiers produits SSLVPN, ces interfaces avec les systèmes d’identification existants sont maintenant beaucoup plus faciles à déployer et à interfacer avec votre système actuel, ce qui n’était pas le cas aux débuts de SSLVPN. De nouveaux systèmes d’identification pourront même apparaître à l’avenir, par exemple des systèmes biométriques, pour ceux qui souhaitent un niveau de confiance et de sécurité plus élevé (voir le chapitre 4 où sont notamment évoqués les accès variables). À ce jour, les systèmes biométriques sont plutôt rares, la plupart des ordinateurs n’offrant pas de lecteur d’empreinte digitale. Cependant, cela tend à devenir de plus en plus courant, et il ne sera pas étonnant de voir des interfaces d’identification biométriques dans les prochains produits SSLVPN. Pour résoudre le problème des clients distants ne disposant pas de tels systèmes d’identification, on pourra fournir un accès plus restreint à ceux-ci et plus large aux autres. Il est intéressant de noter que certains ordinateurs sont d’ores et déjà dotés de systèmes de reconnaissance de niveau biométrique, par exemple la reconnaissance de la manière de taper au clavier: le temps entre chaque touche, le temps de pression des touches et le temps de pause entre les mots sont autant de données qui permettent de dresser un profil relativement unique de l’utilisateur. Certains constructeurs fournissent ce type d’identification, et ces systèmes peuvent fonctionner sur la plupart des ordinateurs.

Gestion des autorisations
Les interfaces de gestion des autorisations via SSLVPN permettent au serveur SSLVPN d’utiliser un système extérieur de gestion des droits des utilisateurs et des groupes. Les entreprises disposant déjà de systèmes de gestion de permissions n’auront ainsi pas besoin de répliquer ces informations (ce qui peut provoquer des erreurs) et pourront utiliser leur infrastructure existante. De telles interfaces existent dans le monde SSLVPN depuis un certain temps, mais leur niveau d’intégration (à savoir les types d’autorisations qu’elles sont capables d’intégrer et les diverses façons de les utiliser) varie encore aujourd’hui et évoluera encore sûrement à l’avenir.

Gestion de la sécurité du client distant
Le premier produit SSLVPN commercial permettant de gérer la sécurité du client distant est apparu en 2003: ce type d’interface est donc relativement nouveau. La gestion de la sécurité du client consiste à dialoguer avec un logiciel de sécurité installé ou présent sur le poste client distant, afin de s’assurer de sa sécurité. Ces produits tiers permettent de créer un environnement fiable sur des machines non fiables : ils peuvent effacer de manière sécurisée les informations sensibles et les caches à la fin de la session SSLVPN, et ils sont enfin en mesure de vérifier la présence de logiciels pare-feu ou d’antivirus mis à jour. Pour plus d’informations sur la gestion de la sécurité du client distant, référez-vous au chapitre 4. À ce jour, de nombreuses améliorations sont apportées et des collaborations plus étroites entre les différents constructeurs de solutions SSLVPN et de sécurité sont encore à venir.

Interface de pare-feu applicatif
Certains serveurs SSLVPN sont fournis avec un pare-feu applicatif, et d’autres non. L’année 2004 a été marquée par l’arrivée de partenariats entre constructeurs de solutions de pare-feu applicatifs et vendeurs de solutions SSLVPN, ce qui a permis devoir apparaître des produits intégrant de telles applications. À ce jour, certains serveurs SSLVPN proposent donc un pare-feu applicatif natif très correct, ou la possibilité de faire communiquer le serveur SSLVPN avec diverses applications de pare-feu applicatif.

Interfaces applicatives
Les interfaces applicatives sont quant à elles plutôt récentes. Elles permettent au système SSLVPN de communiquer avec des systèmes bien précis, habituellement au niveau de la couche application. SSLVPN offre généralement un langage permettant de gérer les spécificités de chaque application. Certains pourraient même proposer de créer des modules logiciels spécifiques permettant d’encapsuler les informations spécifiques d’une application donnée, ou tout autre mécanisme qui permette à SSLVPN de mieux interagir avec les applications de votre société. Cette optimisation de l’intégration de SSLVPN avec les applications traditionnelles est un point sur lequel les constructeurs travaillent encore beaucoup, et de nombreuses nouveautés sont à prévoir de ce côté dans les années à venir.

Historiques, rapports et interface de gestion

Parmi les améliorations à attendre à ce jour de SSLVPN, la gestion des historiques de communication, la création de rapports et les interfaces de gestion de réseau standardisées sont assurément les domaines où l’on peut s’attendre à de grands changements. En effet, quand bien même certains produits SSLVPN savent envoyer des rapports de connexion utilisables par des outils standards de création de comptes-rendus, et si d’autres produits peuvent être gérés grâce au protocole SNMP (Simple Network Management Protocol), ces fonctionnalités sont généralement peu ou mal exploitées, et ne répondent pas aux standards habituels de ce type d’outils. Des fichiers d’historiques (appelés logs en anglais) de connexion sont souvent disponibles dans un format standard, et donc exploitables par des systèmes d’analyse de fichiers d’historique de serveur web, mais ce format ne contient pas les champs les plus intéressants dans le cas précis d’un serveur SSLVPN. On peut donc s’attendre à de gros progrès dans les domaines des rapports, des historiques et de la gestion de serveur. Ces améliorations sont d’ailleurs le chemin naturel qu’emprunte tout constructeur souhaitant faire passer son produit du statut d’outil utilisant les technologies dernier cri, au statut d’outil mûr, stabilisé et parfaitement intégré dans l’administration système et réseau d’un nombre important d’entreprises autour du globe.


Améliorations probables des historiques

Au moment où nous écrivons ces lignes, les dernières versions de serveurs et boîte noires SSLVPN de certains constructeurs montrent un réel progrès dans la gestion des historiques et de la gestion réseau. Il s’agit très probablement du début d’une tendance à l’amélioration et à la standardisation, que l’on pourra très probablement observer dans les mois à venir.


Les serveurs SSLVPN pour les PME et grandes entreprises

Depuis l’arrivée sur le marché de systèmes SSLVPN autonomes, la plupart des constructeurs ont séparé leurs produits en différentes classes prévues pour les différentes tailles d’entreprises utilisatrices. Certains systèmes ont bien tenu les charges lourdes des grands comptes, et d’autres ont obtenu de très bons résultats en se vendant auprès des petites entreprises. Conséquence de cela, les constructeurs respectifs se sont donc concentrés sur leurs bases de clients, et certains produits de constructeurs différents, apparemment semblables à un moment de leur histoire, ont pu diverger de par l’évolution des développements et des améliorations ainsi apportées spécifiquement pour un de leurs clients. Il est même apparu que certains constructeurs, ayant initialement sorti un seul produit censé répondre à toutes les attentes, ont finalement divisé leur produit SSLVPN initial en différents modèles destinés aux structures de tailles différentes. Le fait de disposer ainsi d’une gamme étendue permet en général de couvrir un segment de marché plus grand, a fortiori dans le domaine de l’accès distant. Par ailleurs, le fait de déployer une large gamme de produits a pu désavantager certains constructeurs qui n’ont donc pas pu se concentrer sur le développement de certaines fonctionnalités nécessaires à un marché spécifique.


Serveurs SSLVPN spécifiques à une application

Certaines entreprises, souvent de petites structures, ont parfois besoin de fournir un accès distant à une seule application interne, sans avoir besoin de toute la puissance de feu d’un SSLVPN complet. Dans ce genre de cas, le coût d’un système SSLVPN complet peut s’avérer prohibitif, et le calcul du retour sur investissement d’un tel achat prouve que ce n’est pas une bonne solution. Pour répondre à cette attente, certains constructeurs proposent des systèmes SSLVPN qui ne permettent l’accès distant qu’à une ou deux applications types. Ces systèmes se vendent évidemment en moins grand nombre que les boîtes noires standards, mais peuvent souvent être mis à jour pour devenir un véritable système SSLVPN complet si le client en éprouve le besoin plus tard. Il est donc probable que ce type de service spécifique va être appelé à se développer, soit par d’autres constructeurs reprenant cette idée, soit pour des applications spécifiques plus nombreuses.


SSLVPN et IPSec dans un pare-feu

Au fil de l’avancée des systèmes d’accès distant, on a pu observer deux approches opposées dans l’évolution technique de SSLVPN du côté constructeur. Il faudra prêter une attention particulière au choix d’évolution de chaque constructeur avant de choisir un système SSLVPN, afin que ce choix reflète non seulement les besoins de votre entreprise à un instant T, mais que l’évolution suivie jusque-là par le constructeur retenu semble correspondre aux évolutions prévisibles de votre entreprise: il est très important que la technologie soit capable de s’adapter à vos besoins, souvent changeants. L’une des directions prises par les constructeurs SSLVPN à ce jour consiste à mettre dans la même boîte le pare-feu d’entreprise, le tunnel IPSec et le système SSLVPN, IPSec étant intégré dans le pare-feu depuis sa création. SSLVPN avait commencé en tant que système indépendant, mais l’observation de quelques produits du marché montre qu’une réunion de ces technologies pourrait très bien avoir lieu :

1. En 2003 et 2004, certains constructeurs ont commencé à proposer l’établissement de connexions réseau distant à partir de SSLVPN dans leurs produits (comme nous l’avons montré au fil de ce livre). Cette fonctionnalité a donc fait se rapprocher SSLVPN des solutions de connexion réseau distantes comme IPSec. Cela pourrait même permettre à certaines entreprises de remplacer totalement leur système d’accès distant utilisateur IPSec par une connexion réseau SSLVPN. L’évolution de la cœxistence de SSLVPN et d’IPSec est difficilement prévisible. On pourrait envisager que SSLVPN remplace IPSec à l’avenir sur les connexions réseau des utilisateurs à leur site distant, mais l’absence de norme standard de connexion réseau via SSLVPN risque de plomber quelque peu cette éventualité et laisse donc à IPSec de beaux jours devant lui.

2. En 2004, Netscreen, constructeur majeur de solutions de pare-feu d’entreprise, a acquis Neoteris, l’un des leaders des systèmes SSLVPN. Et bien que les deux gammes de produits soient restées indépendantes depuis, on peut légitimement penser qu’un tel rapprochement ne manquera pas de favoriser l’intégration de SSLVPN dans les pare-feu, d’autant que Netscreen a été racheté depuis par Juniper Network, confirmant l’intérêt de SSLVPN dans le monde des constructeurs de réseau.

3. Cisco, l’un des principaux constructeurs d’équipement réseau, a publié un module additionnel SSLVPN gratuit pour son concentrateur IPSec. Bien que n’étant pas un produit SSLVPN complet par rapport aux fonctionnalités décrites dans ce livre, il est probable que les fonctionnalités que proposera Cisco sur cette base rejoignent la base commune des autres constructeurs. Cisco pourrait très bien en faire un produit à part entière, vendu cette fois-ci, et non plus fourni gratuitement.

4. Checkpoint, autre constructeur de pare-feu et de systèmes IPSec, a sorti sa propre solution SSLVPN fin 2004.

5. Microsoft a commencé dès 2004 à proposer des rudiments de conversion HTML dans sa suite pare-feu ISA. Bien que très loin de mériter le nom de SSLVPN à ce jour, le marché du SSLVPN reste dynamique et il serait bien possible que Microsoft développe donc sa propre solution d’accès distant sur SSL.

6. Citrix, constructeur de solutions de serveurs de terminaux a acquis Net6, fabricant de système SSLVPN, décrit comme un hybride entre SSLVPN et IPSec.

Toutes ces évolutions tendent à convaincre le lecteur que les constructeurs de solutions de pare-feu ou d’accès distant via IPSec se rapprochent des constructeurs de systèmes SSLVPN et posent donc la première pierre d’une fusion de ces technologies vers une offre plus cohérente.


Implémentation de SSLVPN et IPSec et pare-feu
Remarque intéressante cependant vis-à-vis du rapprochement des structures commerciales autour de IPSec et de SSLVPN: les VPN IPSec sont habituellement lancés sur le pare-feu réseau, car ce dernier est chargé de limiter la connexion vers le réseau interne. Ce faisant, les utilisateurs de l’IPSec peuvent donc se connecter au réseau Internet ou au réseau interne de manière transparente. Un système IPSec bien configuré est transparent pour l’utilisateur. Il est donc logique de faire tourner IPSec sur le pare-feu.Du côté de SSLVPN, c'est très différent: les utilisateurs sont censés interagir avec un système SSLVPN, qui leur propose menus, signets, etc. Si l’on installe SSLVPN sur le pare-feu, il faudra donc que les utilisateurs interagissent avec le pare-feu, ce qui rendra ce dernier visible aux utilisateurs, et risque fort de ne pas être apprécié par une entreprise soucieuse de sa sécurité.

Ensuite, il semble que les entreprises qui évoluent vers la convergence des accès distants réseau et applicatif cherchent surtout à fournir un accès à un plus grand nombre d’applications aux employés ou aux partenaires utilisant actuellement l’accès distant. En d’autres termes, l’évolution des systèmes d’accès distants s’adresse aux utilisateurs actuels de système d’accès distants. Ces entreprises cherchent donc plutôt à multiplier les possibilités d’accès, que ce soit les lieux d’accès ou les applications accessibles à distance, et cherchent à baisser le coût de maintenance de ces derniers. Cette tendance est opposée à une autre tendance que nous allons décrire plus loin. La convergence des technologies basées sur SSL et des communications réseau vapermettre aux utilisateurs d’accéder à un plus grand nombre d’applications à distance, à l’aide d’un simple navigateur, comme le montre le schéma ci-dessous. Quant à la convergence avec les outils de pare-feu, elle permettra sûrement de résoudre certains des problèmes de sécurité développés aux chapitres 3 et 4.

bonnes-feuilles-40-1.jpgConvergence des technologies basées sur SSL



Infrastructure d’accès SSL

L’accès distant au réseau par les employés de l’entreprise est un but important de
SSLVPN. Mais il existe un nombre considérable d’utilisations possibles en dehors de ce paradigme. Au-delà de l’utilisation évidente de SSL pour l’e-commerce, on peut aussi utiliser SSLVPN pour échanger avec des partenaires, clients, prospects, etc. Par exemple, un constructeur d’équipements vendant en marque blanche pourrait très bien mettre à disposition aux clients revendeurs les informations techniques de ses produits. Un cabinet d’avocat pourrait partager des documents de travail avec ses clients. Une compagnie de réassurance pourrait aussi échanger avec ses assureurs les informations financières et statistiques de gestion des risques, etc. Tous ces exemples d’utilisation de SSLVPN peuvent par ailleurs être automatisés, et montrent que le World Wide Web peut être un levier important dans la simplification de votre activité. Les cas évoqués ci-dessus nécessitant évidemment une sécurité et une confidentialité maximale, SSL VPN semble répondre parfaitement à ces attentes.

La « marque blanche »
La vente en « marque blanche » consiste à ne pas vendre votre produit directement, mais à le fournir à des revendeurs qui lui apposeront leur propre marque. Finalement, votre produit semblera donc fabriqué par ces revendeurs. Très utilisé dans l’industrie, on trouve désormais aussi ce concept dans les services.


Bien que les buts affichés dans le paragraphe ci-dessus semblent très différents des usages habituels d’un système SSL VPN, l’ajout de fonctionnalités à SSLVPN permettant de fournir de tels services pourrait faire de ce système d’accès distant une véritable passerelle d’accès sécurisée à toute ressource. Certains constructeurs prennent ainsi la voie consistant à mettre au point une telle « Infrastructure d’accès SSL ». Pour être capable de fournir l’accès à un grand nombre de types d’utilisateurs différents, SSLVPN doit d’abord être capable de fournir un accès à un grand nombre d’applications distinctes (au niveau applicatif ), et doit pouvoir fournir l’accès simultané à des portails très différents.
Une grande différence existe donc par rapport à l’utilisation standard consistant à fournir un accès à de nombreuses applications, mais ce uniquement aux employés de l’entreprise. L’évolution d’un tel système SSLVPN est donc très différente. Le but des constructeurs dans ce cas est donc principalement d’élargir les capacités d’accès à d’autres groupes d’utilisateurs distants. L’amélioration de la gestion de plus d’applications devient alors moins importante.
Bien évidemment, les constructeurs ne se sont pas totalement dirigés dans l’une ou l’autre direction. La plupart de ceux qui souhaitent élargir les types d’utilisateurs distants possibles, développent aussi les possibilités d’accès à un plus grand nombre d’applications. Et les constructeurs qui font de leur système SSLVPN une « Infrastructure d’accès SSL » continuent de proposer un accès réseau distant par l’établissement de connexions réseau aux applications non web.

bonnes-feuilles-40-2.jpgExemple d’infrastructure SSL


Comme le montre le schéma ci-dessus, l’Infrastructure d’accès SSL (une version améliorée de SSLVPN) pourrait devenir la passerelle d’accès distant standard pour l’ensemble des outils métiers basés sur le Web, de même que les pare-feu sont devenus le système de sécurisation standard des accès au réseau interne des entreprises.
Single Sign On
Réduire
SINGLE SIGN ON
Simplifier la gestion des mots de passe avec un outil SSO
Par Noé Barat - Copyright L'Informaticien, tous droits réservés

Soyons réaliste : la profusion des mots de passe représente un coût pour l’entreprise et un risque sécuritaire pour tous. Sans compter que cette situation entraîne un degré d’insatisfaction non négligeable pour les utilisateurs. Pour l’éviter, l’informaticien peut opter pour un système de signature unique (SSO) qui simplifiera l’accès aux ressources de son environnement de travail personnel.


MONTRE_USB.jpgEn partant au travail le matin, vous activez peut-être l’alarme de votre maison, et une fois rendu sur votre lieu de travail vous introduisez un nouveau code pour désactiver le système d’alarme de votre entreprise. Ensuite, vous devez encoder un mot de passe au login. Un peu plus tard, vous relevez vos courriers électroniques via gmail, auquel compte est évidemment associé un autre mot de passe. Idem pour les transactions bancaires, ou bien lorsque vous prenez de l’essence, ou lorsque vous voulez vous informer d’un suivi de commande sur Amazon ou sur une autre boutique on-line. Inutile d’approfondir la question : à force de vous inscrire un peu partout sur des sites/forums/boutiques en ligne, ou de donner vos codes de cartes bancaires ou autres, vous avez tendance à toujours utiliser les mêmes identifiants bateaux (pour les retenir facilement) au détriment de la sécurité. La mémoire du cerveau humain (d’un informaticien !…) est a priori pratiquement sans limites de capacité, surtout que les experts estiment généralement que nous n’utilisons qu’un nombre très limité de nos ressources. Cependant, la mémoire n’est pas parfaite et est souvent associée à des stimuli visuels, ou bien des sons, ou encore des odeurs.

L’idéal pour nous faciliter la vie serait un coffre-fort logiciel. Ce coffre-fort serait accessible via une application et un mot de passe unique – le seul SSO (Single Sign-On) à véritablement mémoriser. Comme nous aimons travailler sur des plates-formes différentes, ou même de temps en temps utiliser un environnement de travail temporaire (utilisateur nomade), nous souhaitons que le fichier de la base de données du coffre-fort, ainsi que les applications qui l’accompagnent, soient stockés sur clé USB – qu’il ne faut alors pas perdre évidemment… Cette solution existe sous Windows XP 32 bits, PocketPC, Linux, Mac OS X et PalmOS et se nomme Keepass (http://keepass.sourceforge.net/).

STYLO_USB.jpgD’abord vous devez réfléchir à choisir un bon mot de passe unique, pour cela des générateurs de mot de passe existent sur Internet comme celui que vous trouverez sur le site de WebRankInfo (http://www.webrankinfo.com/outils/semantique.php). Mais Keepass peut aussi en générer un pour vous. Vos informations confidentielles seront traités par les algorithmes les plus puissants au monde à l’heure actuelle : AES et Twofish. Le premier, Advanced Encryption Standard, est un algorithme de chiffrement symétrique qui a été choisi comme standard de chiffrement pour les organisations du gouvernement des États-Unis. Le deuxième, Twofish, est un autre algorithme de chiffrement symétrique (par bloc) inventé et analysé par notamment le célèbre Bruce Schneier.


Sous Windows

Par défaut, le soft est en anglais mais il est possible d’obtenir une interface en français en copiant le fichier lang en français, disponible sur le site, dans le répertoire d’installation de Keepass, qui est en théorie C:\Program Files\KeePass Password Safe ; puis en choisissant la langue française (menu View / Change Language). La première étape sera de créer une nouvelle base de données (Fichier/Nouvelle BD) en indiquant dans le champ la longue phrase complexe destinée à protéger l’accès à l’ensemble de vos mots de passe : il est recommandé un mot de passe d’une longueur supérieure à 128 bits qui sera composé de chiffres et de lettres. À ce stade, nous pouvons recopier le dossier complet sur clé USB (C:\Program Files\KeePass Password Safe vers par exemple E:\KeePass Password Safe), puis désinstaller le logiciel sur disque dur. Ainsi, l’application et sa base de données sont maintenant sur clé USB.

Il ne vous reste plus qu’à ajouter vos mots de passe : vous avez à votre disposition plusieurs rubriques prédéfinies pour vous aider à vous y retrouver (Windows / Réseau / Internet / Courriel / Banque en ligne). Vous pouvez évidemment créer une nouvelle rubrique et ajouter une entrée. Vous devez renseigner un titre à votre mot de passe, un nom d’utilisateur associé, une URL de l’adresse du service où ce mot de passe est utilisé. Et vous pouvez au besoin saisir des commentaires.

Notez que pour récupérer un mot de passe vous utiliserez probablement la technique du copier / coller. Ce qui est peu sûr au niveau de la sécurité car ces informations resteront dans le presse-papier. Néanmoins vous pouvez configurer KeePass pour qu’il vide automatiquement le presse-papier au bout d’une dizaine de secondes – et ceci est aussi configurable sous Linux.


Sous Linux

KeePassX est l’équivalent de KeepPass mais sous Linux. Plus concrètement, sous Ubuntu Dapper, vous devez télécharger le paquet deb disponible sur le site, puis l’installer et également installer la bibliothèque qt4 :

$ sudo wget http://belnet.dl.sourceforge.net/sourceforge/keepassx/KeePassX-0.2.1.deb
$ sudo dpkg -i KeePassX-0.2.1.deb
$ sudo apt-get install libqt4-qt3support


Vous pouvez lancer KeePassX en tapant « keepass » dans un terminal :

...
Ubuntu comes with ABSOLUTELY NO WARRANTY, to the extent permitted by
applicable law.
Last login: Thu Jun 29 14:29:22 2006 from 192.168.0.39
 ______________________________________
/ Bonjour noe, nous sommes le jeudi 29 \
\ juin 2006, et il est : 15 h 17       /
 --------------------------------------
   \
    \
        .--.
       |o_o |
       |:_/ |
      //   \ \
     (|     | )
    /’\_   _/`\
    \___)=(___/

Sys. de fich.            Tail. Occ. Disp. %Occ. Monté sur
/dev/hda3              67G   18G   47G  28% /

noe@noe-laptop:~$keepass


Nous n’avons plus qu’à choisir le chemin /media/SWISSMEMORY/KeePass Password Safe. Pour rendre l’utilitaire le plus portable possible nous conserverons le .deb, le .rpm et l’archive tar sur clé USB.
Remarquez maintenant que si vous n’avez pas besoin d’une solution Linux/Windows mais d’une solution uniquement dédiée à Linux, il existe un excellent software répondant au nom évocateur de « Revelation » (http://oss.codepoet.no/revelation/). Celui-ci stocke également ces mots de passe de manière hautement sécurisé en utilisant un algorithme AES afin de crypter un fichier base de données au format XML. Comme avec keepass, il structurera vos mots de passe en arbre pour facilement vous y retrouver. Vous pouvez aussi exporter ou importer les mots de passe dans différents formats et rechercher un compte. L’atout de ce logiciel est son intégration à Gnome.

Évidemment, comme maintenant tout tient sur votre clé USB, vous devez veiller à ne pas la perdre ; nous vous recommandons de lui associer un cordon. En fait, il existe aujourd’hui une kyrielle de manière de transbahuter ce coffre-fort électronique moderne : sous la forme d’une téléphone portable, d’une montre, d’un stylo, et de bijoux…

Sommaire
Réduire
DOSSIER
   
• SERVEURS L’incroyable essor des « blades »


MAGAZINE

• RENCONTRE AVEC...  Les chasseurs du Net


RÉSEAUX & SÉCURITÉ

• Qualité de service : l’intelligence au cœur des réseaux LAN et WAN

• Bonnes feuilles : accès Web et extranets sécurisés, quel avenir pour SSL VPN ?

• Single Sign On : simplifier la gestion des mots de passe avec un outil SSO


SERVEURS & SYSTÈMES

• Impression : les bonnes pistes pour la chasse au gaspi

• Technologie : Ricoh Gelsprinter, du gel dans vos imprimantes !


LOGICIELS & APPLICATIONS

• Solutions de gestion de parc : PME, reprenez la main sur votre équipement informatique !

• Ajax : le temps de l’intégration

• DotNet 2.0 : Krypton, un excellent kit de contrôles IHM gratuits

• Mise à jour d’un ERP : 15 ans d’expérience, deux ans de ré-écriture


POSTE DE TRAVAIL

• Linux : utilisez au mieux votre bureau SuSE 10.1

• Windows Vista : une version RC1 rassurante


ITINÉRAIRES

• Nouveaux métiers : responsable informatique nomade

• Charte Cigref/Syntec : les bonnes pratiques en livrets

• Livres : une sélection des derniers ouvrages pour se perfectionner en management de SI, contrôle de versions et contrats informatiques

• Imagine Cup 2006 : la France championne du monde de l’intelligence artificielle
Edito
Réduire
If Decline = True then goto France

Nous autres Français sommes champions pour estimer que tout va mieux ailleurs. L’Informatique et les Nouvelles Technologies n’échappent pas à ce constat tragique. A entendre les commentaires de « spécialistes », notre vieux pays serait en passe de tomber dans l’abîme du tiers-monde.

newstef26526_Copier5.gifS’il existe des pays en voie de développement, il faudrait inventer une catégorie spéciale « France », celle des pays en voie de régression. Chaque semaine, la lecture des éditoriaux de Nicolas Baverez, le multi-carte de l’analyse économique, et de quelques-uns de ses confrères me plonge dans l’incompréhension : nous ne devons pas habiter le même pays.

Il n’est pas dans mon propos d’affirmer que tout va très bien madame la Marquise mais les faits comme les chiffres sont têtus et indiquent que notre situation économique n’est pas aussi tragique qu’on voudrait nous le faire croire, du moins sur ce secteur. Prenons quelques exemples glanés ces dernières semaines. « Alors que “ les déclinologues ” pointent ses performances anémiques et le bourbier socio-politique dans lequel elle se trouve, une étude de Forrester Research montre que les entreprises et les particuliers adoptent aussi parfaitement la mondialisation et les nouvelles technologies. Avec 7 millions de blogs, la France apparaît comme la deuxième plus grande blogosphère du monde après les Etats-Unis. Ses ventes en ligne vont bientôt dépasser celles des marchés anglais et allemand. Côté investissements, les entreprises ont dépensé davantage que les Anglais dans les télécoms en 2005. Ils sont aussi le troisième plus gros consommateur de services IT en 2006 avec 21 milliards de dépenses », indique notre confrère Le Monde Informatique le 14 septembre dernier. Le lendemain, le quotidien Les Echos présente les chiffres semestriels des SSII françaises et titre : « Solides résultats ». Les prévisions de croissance ont été revues à la hausse : de 4 à 6% par an d’ici 2009 selon le Gartner Group.
10 000 personnes vont être embauchées en 2006. « La France tire le marché en Europe devant la Grande-Bretagne et l’Allemagne », affirme Richard N’Guyen, analyste chez ING, à nos confrères. Nous-mêmes publiions le mois dernier un panorama de l’industrie française du logiciel qui montre que nous sommes pratiquement les seuls à disposer d’une véritable industrie quand nos partenaires européens n’ont que quelques très grandes entreprises mais pas un tissu économique complet et diversifié.

Un vieux proverbe allemand prétend que le bonheur consiste à être « heureux comme Dieu en France ». Une nouvelle fois, mon discours ne vise pas à verser dans un optimisme béat. Cependant, à quelques mois d’échéances électorales où il me semble que les aspirants candidats s’essaient à un
discours sur les nécessaires changements - et ce quelle que soit leur sensibilité politique - il m’apparaît opportun de rappeler que l’informatique et les informaticiens ont vécu des moments plus tragiques qu’actuellement.

Stéphane Larcher
Repères
Réduire
BUSINESS
Les bons points de l’administration électronique

Pour la cinquième année consécutive, Cap Gemini Consulting et TNS Sofres ont réalisé une étude quantitative sur les attentes des Français en matière d’administration électronique. Les résultats présentés décernent un satisfecit aux efforts consentis. Le succès est d’ailleurs confirmé. Près de 40 % des Français ont utilisé les services publics en ligne en 2006. Très encourageante, la fréquentation des sites progresse pour des catégories qui étaient peu concernées jusque-là : ouvriers (+ 6 %) et chômeurs (+ 5 %). En conséquence, les sites des services sociaux et du MINEFI continuent donc de gagner des visiteurs. Au global, l’Internet public est perçu comme un fournisseur de services avec comme offre emblématique : le paiement des impôts en ligne. Ce service a doublé sa fréquentation en deux ans. Le niveau d’exigence vis-à-vis des sites augmente. Mais 80 % des utilisateurs sont satisfaits de la qualité de l’information et de la facilité avec laquelle on peut effectuer les démarches. Une frange de visiteurs dans les tranches d’âge les plus jeunes ne se montre pas convaincue et se déclare même insatisfaite – 15 % chez les 15-24 ans. Parmi les attentes, la création d’un compte administratif personnalisé rencontre l’adhésion de 60 % des Français. Plus des deux tiers considèrent qu’Internet permet à l’État de réaliser des économies. Un des axes d’amélioration proposés par les personnes interrogées serait de mettre à jour plus régulièrement les contenus, et de simplifier vocabulaire employé et procédures administratives.


BUSINESS
La mobilité et la migration vers des solutions IP restent la priorité des entreprises

Selon une étude rendue publique par le cabinet américain Forrester en août dernier, l’année 2006 aura été celle de la mobilité, de la migration vers des solutions IP et des problématiques de sécurité. 40 % des personnes interrogées dans cette étude vont augmenter leurs dépenses en équipements SSL et IPSec, et près de la moitié des entreprises prévoient une hausse de leurs investissements dans les solutions de téléphonie IP ou de VoIP de site à site. Il est cependant à noter que malgré une baisse de 9 %, les investissements en équipements d’ancienne génération, comme le Frame Relay, restent au niveau de 22 %. Selon la même étude, près de la moitié des entreprises ont déployé des VPN MPLS. Dans le secteur, l’Europe dépasse largement les États-Unis, où seules 33 % des entreprises auraient déployé cette technologie. En Europe, 16 % seulement des entreprises ne prévoient pas de déployer des VPN MPLS. L’étude montre aussi qu’un tiers des budgets télécoms et réseaux des entreprises est consacré aux produits et services de communication mobile. Ces dépenses sont prévues en augmentation : 60 % des entreprises disent évaluer des services combinés pour la mobilité et le Wireless LAN. La moitié d’entre elles le considère comme une priorité. Les entreprises européennes se caractérisent par un fort attrait pour les solutions d’infogérance dans le domaine : seules 18 % n’ont pas recours à ce type de service (53 % aux États-Unis).    n


La domination d’XP

figure1.jpg

Source : OneStat (parc installé mondial des postes de travail, ordinateurs de bureau et ordinateurs portables en utilisation à fin 2005)


Domaine d’activité des ingénieurs informatiques en France

figure2.jpg

Source : Conseil national des ingénieurs et des scientifiques de France (CNISF)


Part du budget informatique dédié à l’Open Source dans les administrations françaises

figure3.jpg

Source : Markess


Les éditeurs d’ERP en France (parts de marché en 2005)

figure4.jpg

Source : PAC
Dernière Heure
Réduire
Exchange 2007 bêta 2 à télécharger
Le futur de la messagerie d’entreprise ?
Par Hugo Lunardelli - Copyright L'Informaticien, tous droits réservés

Une pré-version à télécharger pour découvrir dès maintenant ce qui préfigure sans doute le futur de la messagerie en entreprise.

idhugo.gifDisponible sur le site de Microsoft depuis le mois de juillet, la bêta 2 d’Exchange Server 2007 implémente l’ensemble des fonctionnalités prévues pour cette nouvelle version. Il s’agit sans doute de la version la plus innovante d’Exchange jamais développée par Microsoft si l’on en juge par ses caractéristiques : messagerie vocale, fax, VoIP seront désormais gérés ; de nouveaux services de sécurité et d’anti-spam sont ajoutés ; une nouvelle interface de gestion et surtout une administration en mode ligne de commande sont de la partie ; le support du 64 bits et un enrichissement des fonctionnalités destinées aux mobiles et aux postes connectés en dehors de l’entreprise complètent le tout.


Jeux de rôles et ligne de commande

À l’instar de ce que propose Windows Server 2003, la configuration d’Exchange 2007 est basée sur la notion de rôle que devra assumer le serveur sur lequel vous choisirez de l’installer. Ces rôles sont au nombre de cinq : Mailbox (stockage des messages, calendriers…) Edge Transport (passerelle SMTP comprenant anti-virus, anti-spam et autres services de sécurité), Hub Transport (tête de pont du routage des messages), Client Acces (support d’OWA, de la connectivité Outlook via http, des clients mobiles, IMPA, Pop3…) et enfin Unified Messaging (support de la messagerie unifiée et donc intégration de la messagerie vocale, du fax et de la VoIP).
Cette modularité permet de n’installer que les composants strictement nécessaires à l’accomplissement d’un rôle donné en appliquant automatiquement les paramètres de sécurité adaptés. L’administration d’Exchange a été repensée à travers une nouvelle interface simplifiée et plus fonctionnelle, mais la nouveauté essentielle réside dans l’intégration d’un shell basé sur Monad, l’environnement ligne de commande de Microsoft. En fait, la console de management d’Exchange repose sur ce shell, ce qui implique que toutes les commandes sont susceptibles d’être lancées via une ligne de commande, ce qui, en retour, permettra d’automatiser simplement les tâches répétitives via un script ad hoc.


Messagerie unifiée

La grande nouveauté d’Exchange 2007 consiste dans la promesse d’une unification des différents moyens de communication que sont la messagerie vocale, le fax, les appels VoIP et la messagerie électronique. Sous réserve de la mise en place de l’infrastructure nécessaire (notamment au niveau de l’interfaçage avec le PBX), chaque message reçu via l’un ou l’autre de ces outils sera consolidé dans la boîte Exchange 2007 de l’utilisateur : difficile de faire plus simple !

Exchange 2007 supportera également l’interrogation de sa boîte aux lettres au moyen d’un téléphone et utilisera Speech Server (désormais en standard avec Exchange 2007) pour guider l’utilisateur et effectuer ses choix au moyen du clavier.
Outlook Web Access
et Outlook 2007

Sans surprise, Outlook reste le client de messagerie préféré d’Exchange et la version 2007 supporte désormais l’auto configuration. Il suffira lors de l’installation d’Outlook d’entrer son nom, adresse e-mail et mot de passe pour qu’Outlook reconnaisse le serveur Exchange présent sur le réseau et s’auto configure.

Les plus grandes avancées concernant le client de messagerie portent sur OWA (Outlook Web Access), virtuellement identique à Outlook 2007 tant par son apparence que par les fonctions supportées. Si Exchange 2007 est configuré pour utiliser la messagerie unifiée, on pourra consulter sa boîte vocale en se connectant à partir d’un hot spot et écouter ses messages au moyen d’un mini player intégré à OWA – si tant est que le PC utilisé dispose de hauts-parleurs ! On pourra de la même façon transférer un appel sur une ligne fixe ou un mobile afin de le consulter ultérieurement.

Exchange 2007 est disponible au téléchargement en version française à l’adresse suivante :
http://www.microsoft.com/france/technet/prodtechnol/exchange/2007/downloads/beta.mspx
La version finale ne sera disponible qu’en mode 64 bits, mais cette bêta est fournie en version 32 bits et peut donc s’installer sur un serveur supportant Windows Server 2003 SP1 ou Windows Server 2003 R2.


Magazine
Réduire
BEFTI
Rencontre avec les chasseurs du Net
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Certains vilains du Net se sont fait une belle réputation… quand ils ont été pris ! Car si des noms comme Mitnick résonnent encore aux oreilles de dévoyés de la Toile, c’est qu’ils ont été pris par de « grands flics » aussi forts qu’eux. En France, ces chasseurs du Net sont regroupés à la DST (Direction à la surveillance du territoire) et à la BEFTI, la Brigade d’enquêtes sur les fraudes aux technologies de l’information. L’Informaticien a rencontré le responsable de ce service spécialisé.

commissaire-Yves-Crespi8995.gif«Ici, nous voulons des chasseurs » , lance le commissaire Yves Crespin qui dirige la BEFTI. À 30 %, la Brigade initie des dossiers sur son initiative directe. Sur ces dossiers, parfois sensibles, cet instinct de la chasse est primordial pour arriver à l’autre bout du réseau jusqu’au délinquant du Net. Yves Crespin ajoute : « D’ailleurs, les personnes qui intègrent la Brigade ne sont pas tous des informaticiens à l’origine – ils peuvent apprendre les techniques ici, même si un minimum est demandé – mais ils ont tous ce côté chasseur qui les fait parfois rester tard lorsqu’ils sont sur une piste. » Les enquêtes menées concernent principalement les attaques contre les postes de travail ou les serveurs, la contrefaçon de logiciels, le piratage et les actions pour nuire comme le phishing ou le « défacement » de sites Internet.
Cet instinct a permis à la Brigade de collectionner les premières et les coups d’éclats. La BEFTI a été à l’origine des premiers jugements sur le spam en France. Elle a empêché un industriel du défacement de sites – près de 1 200 en un an ! – de nuire. La Brigade a aussi à son actif l’arrestation d’un cadre de bon niveau qui a tripatouillé les systèmes de réservation de vols vers les États-Unis, ou encore des petits malins qui, quelques jours après le 11-Septembre, ont mis en ligne des « recettes » de bombes. Plus récemment, la Brigade a fait la chasse aux appels à la violence sur les blogs, ou autres forums, pendant des événements en novembre dernier dans les banlieues.
Yves Crespin classe ces délinquants en différents catégories : « Il y a sur le Net de vrais voyous ; parfois, pour le reste ce sont surtout des personnes qui ne se rendent pas compte de ce qu’elles font. Certains se rapprochent plus du petit c… qui s’ennuie et veut exister par ce moyen. Le plus souvent, les personnes que nous arrêtons sont des primo délinquants qui, un jour, basculent pour de multiples raisons. »   
Certains dossiers sont prioritaires comme ceux s’attaquant aux institutions, les failles dans des systèmes sensibles ou sur des « gros coups » qu’il faut traiter rapidement.
D’ailleurs, le commissaire Crespin fait remarquer que « la cybercriminalité est une des priorités du ministère ».



La BEFTI en bref
La Brigade d’enquête sur les fraudes aux technologies de l’information est composée de 28 personnes : 3 groupes d’enquêtes de 6 personnes et un groupe d’assistance de 7 personnes. La Brigade traite entre 300 et 350 dossiers par an, presque un par jour, dont découlent une quarantaine de gardes à vue. Yves Crespin déplore les problèmes de coopération internationale qui brident les résultats de la Brigade : « Par exemple, début 2005 j’ai envoyé une demande d’assistance en Israël. Les résultats viennent de me parvenir 18 mois plus tard ! Quand on sait que les logs sont gardés 6 mois, on ne peut plus rien faire ! »



D’autres missions en soutien des services

Les enquêtes par initiative directe ne sont qu’un des aspects des missions de la BEFTI. Dans son activité, la Brigade tient aussi un rôle d’assistance pour les autres services du ressort de la Direction régionale de la police judiciaire (DRPJ) de la région parisienne.
Ces missions sont d’abord d’apporter un soutien technique aux autres services sur des enquêtes. La BEFTI peut être ainsi sollicitée par des services de la police judiciaire, mais aussi par le parquet, ou des juges d’instruction lorsque ces personnes sont confrontées à des appareils numériques dans leurs enquêtes.
Cela peut aller de l’analyse de disques durs à celle des connexions d’un poste, en passant par l’assistance lors de perquisitions, ou simplement servir de hotline pour des enquêteurs sur le terrain. La Brigade travaille ainsi assez souvent avec la Brigade anti-terroriste. Autre motif de satisfaction pour le commissaire Crespin : « Dans 75 % des cas, nous apportons un plus dans l’enquête en trouvant parfois des éléments déterminants. »
Ces demandes augmentent d’année en année. L’an passé, la BEFTI a été mise à contribution 250 fois. Depuis le début de l’année, les contributions s’élèvent déjà à 280 « en doublant le temps d’analyse », précise le commissaire Crespin. Cette augmentation du temps d’analyse s’explique par des disques durs de plus en plus gros, des outils de cryptage de plus en plus efficaces. Alors, quels outils utilise la BEFTI pour faire face ?
« Ce ne sont pas des logiciels que vous pouvez trouver pour des particuliers. Nos produits ne sont pas bridés comme ceux que vous pouvez vous procurer et ne sont vendus que de services de police à services de police. Nos produits sont utilisés aussi par les polices britannique et américaine. »
Les dernières missions de la Brigade sont la sensibilisation et la formation, avec la diffusion des bonnes pratiques en termes de sécurité dans les services de la Préfecture de police de Paris. Une des opérations de formation de la BEFTI s’est concrétisée par la présence, dans les commissariats, de deux policiers formés aux techniques d’investigation en rapport avec la criminalité électronique. Désormais, les plaintes sont évaluées à un premier niveau dans les commissariats et ensuite, si la difficulté technique est importante, un avis est demandé à la BEFTI pour un transfert du dossier vers la Brigade. « Par cette méthode, nous augmentons les compétences et cela nous permet de récupérer des informations de terrain de manière large », explique le patron de la BEFTI.
Les petits délits sont traités au commissariat. Seules les affaires d’envergure remontent vers la Brigade. Il n’est donc pas nécessaire d’aller voir la BEFTI si vous trouvez que vous avez trop de spams dans votre boîte mail, ou si votre voisin a téléchargé deux chansons sur un réseau peer-to-peer ! En revanche, s’il monte un serveur et revend des copies pirates… Là, il est possible que la BEFTI jette tout de même un œil sur vos déclarations !

Quel avenir pour la BEFTI ?

Le commissaire Crespin est confiant dans l’avenir de son service à la vue des résultats passés. Il pense que la Brigade va s’étoffer encore en effectif pour rejoindre le niveau des autres brigades (une centaine de personnes). Il pense aussi que la BEFTI restera une brigade spécialisée, mais avec peut-être une couverture plus large. Une chose est sûre, pour Yves Crespin, la chasse n’est pas fermée !



Pourquoi une brigade spécialisée dans les fraudes aux technologies ?
Au milieu des années 80, des entreprises françaises, toutes liées au secteur de la Défense, connaissent une vague sans précédent d’attaques sur leur réseau – qui ne s’appelle pas encore Internet. Au bilan, on suppose qu’une bande de hackers plus ou moins manipulés par un gouvernement étranger, situé environ entre l’Oder et l’Oural et dont le nom du service de renseignement est en trois lettres (?), aurait provoqué cette attaque. Le hic, c’est qu’au plan légal, le gouvernement français est totalement démuni. Des compétences parcellaires se trouvent à la DST et à la Brigade financière de la Préfecture de police de Paris. La loi Godfrain permet d’étoffer ce groupe, qui devient en 1994 un service à part entière, le SEFTI. Six ans plus tard, accédant au plus haut rang dans les structures, le SEFTI se transforme en une brigade, pour devenir la BEFTI.



p.1
Réduire
SERVEURS
L’incroyable essor des « blades »
Par Yann Serra - Copyright L'Informaticien, tous droits réservés

C’est parti ! Depuis cette année, les entreprises sont de plus en plus nombreuses à faire migrer leur centre de données vers des serveurs blades. À entendre leurs constructeurs, ces machines toutes fines et ultra condensées n’auraient que des avantages. Est-il vraiment temps de jeter vos serveurs en tour et en rack ?

Blade0124035_Copier11.gif

Avec sa disposition verticale, sa largeur toute mince, sa carte mère complète et son châssis pour l’accueillir, le boîtier blade – ou « lame » en bon français – n’est rien d’autre qu’un gabarit dernier cri inventé pour résoudre, toujours plus efficacement, la consolidation des serveurs. Cette dernière correspond à la réplication des applications serveurs d’une entreprise sur suffisamment de machines en parallèle pour qu’il y ait en permanence une unité disponible à même de traiter les nouvelles requêtes. Qu’il s’agisse de répartir la charge sur le réseau, de cumuler de la puissance ou de toujours assurer une redondance en cas de panne, la consolidation s’est aussi bien imposée dans le domaine des serveurs Web (frontaux), des serveurs d’applications (mid-tiers) et autres bases de données (troisième tiers) que dans celui des supercalculateurs.

Du point de vue logiciel, la consolidation est un exercice parfaitement digéré. De BEA à WebSphere, en passant par Altiris ou Oracle 10 Grid, les solutions serveurs se jouent depuis belle lurette des problématiques de répartition du travail (on parle plutôt de « distribution », voire de « gridification ») sur un réseau de machines physiquement indépendantes, chacune fonctionnant sous son propre système d’exploitation, avec ses propres copies d’applications. Et comme le précise Pascal Roussel, chef de produits Serveurs xSeries et Blade chez IBM, « De surcroît, les commutateurs évolués – ou switches, en anglais – permettent de bénéficier d’une distribution dynamique des requêtes (load balancing) sur la base d’algorithmes avancés (round robin, etc.). »

Fin du fin, Fujitsu Siemens va jusqu’à proposer à son catalogue le logiciel ASCC (Adaptive Services Control Center) qui permet de définir des règles de répartition de charges en fonction des priorités de l’entreprise (notamment lorsqu’une application devient ponctuellement plus importante, tel un progiciel de comptabilité qui a besoin de plus de puissance au moment de la rédaction des fiches de paie). Dans le même ordre d’idée, chaque constructeur procure à ses clients des outils d’administration par lots de serveurs. Assez évolués, ceux-ci permettent l’installation automatique des logiciels (éventuellement par clonage d’une configuration existante), la surveillance et le pilotage à distance (qui comprend le redémarrage) pour chacune des machines présentes sur le réseau. Pêle-mêle, citons Open Manage chez Dell (dont la surveillance va jusqu’à calculer le budget électrique), Systems Insight Manager chez HP, la suite ServerView chez Fujitsu Siemens (qui peut même reconfigurer le BIOS des serveurs), ILOM chez Sun ou encore Director chez IBM (capable d’installer automatiquement les bons pilotes).


Quand le génie logiciel se heurte au détail physique

Mais, paradoxalement, ajouter physiquement de nouvelles machines dans son réseau a longtemps été plus facile à dire qu’à faire. Yves Capelle, spécialiste des solutions blade chez HP, est consterné par la réalité pratique de la chose : « Songez qu’avec les contraintes de placement des prises murales, de longueur arbitraire des câbles et d’espace disponible, une entreprise peut perdre une bonne journée rien que pour réfléchir à la façon dont elle va installer physiquement un nouveau serveur classique, en boîtier tour. Et si l’aménagement à faire concerne plusieurs ordinateurs, vous êtes généralement bon pour vous apercevoir au dernier moment qu’il faut prendre rendez-vous avec un électricien. »

Certes, les entreprises qui investissent dans une consolidation de serveurs bénéficient généralement des bons conseils d’un prestataire pour que le problème ne se pose que la première fois. La solution jusqu’ici majoritairement proposée est celle des « racks », à savoir des serveurs en forme de « boîte à pizza » d’une largeur de 19 pouces (un peu plus de 48 cm) et que l’on peut superposer les uns au-dessus des autres dans une étagère normalisée en 42U. Le U, qui signifie « unité », correspond à la hauteur minimale d’un serveur rack, soit 4,5 cm environ. Une étagère peut donc contenir 42 serveurs racks 1U, ou moins si certains mesurent davantage – ce qui est le cas, notamment, lorsqu’un serveur accueille des cartes PCI additionnelles.

Mais Thierry Marseille, porte-parole du fondeur Intel, acteur impliqué depuis quelques années dans le design final des produits informatiques, ironise sur le « standard » rack : « C’est une étagère métallique à glissière pour ranger des serveurs les uns au-dessus des autres, et c’est tout ! À part disposer tous les câbles au même endroit, cette digne héritière de la bureaucratie soviétique n’apporte aucune valeur ajoutée à ce fleuron de l’informatique moderne qu’est le centre de données. » Principalement pointée du doigt, l’absence totale de bénéfice en ce qui concerne le cumul de la consommation électrique et la croissance de difficulté pour la maintenance matérielle.


Comment migrer ?
Tous les constructeurs proposent un service de migration des logiciels de l’ancienne ferme de serveurs vers une nouvelle installation à base de blades. Il s’agit généralement d’installer physiquement les blades au coté des anciens serveurs (en étendant momentanément le nombre de machines dans le réseau), de copier leur image disque (à l’aide de l’outil de gestion fourni, lequel prend en compte les problématiques de pilote), de vérifier que cela marche et de désinstaller les anciens serveurs. « Et c’est tout ! », s’exclame Xavier Crombez de Dell, « Les blades offrent un nouveau form factor et plus de puissance, mais restent intrinsèquement des serveurs du même type que leur prédécesseur. » Alternativement, certains constructeurs, comme Sun, proposent de configurer et de tester la ferme de blades avant de l’installer sur site.




Plus de cohérence dans le matériel

« Avec les blades, chaque serveur se résume à une carte mère et un disque dur. Tout le reste (alimentation, ventilateurs, connecteurs, câbles) est mutualisé dans le châssis qui reçoit les blades », explique Nathalie Rotceig, chef de produit de la division Serveurs chez Dell France. Cette conception simplifie grandement le Data Center, ce qui permet d’allèger la maintenance et, par conséquent, le coût de celle-ci. Accessoirement, elle contribue à réduire les volumes, ce qui n’est pas innocent dans le cadre de machines qui réclament d’onéreux espaces climatisés, seuls garants de leur fonctionnement à plein régime – d’un point de vue contractuel, du moins. La DSI d’Antargaz, client de Dell, raconte ainsi la migration d’un Data Center vieillissant, composé de serveurs monolithiques d’ancienne génération, vers une ferme de blades : « Les serveurs blades Dell PowerEdge 1955 apportent des performances accrues dans un espace restreint ; la salle informatique a vu son nombre d’armoires racks diminuer de sept à trois grâce à cette technologie. »

Le câblage, cauchemar de l’administrateur, constitue le progrès le plus visible. Le châssis intégrant des commutateurs pour les connectiques réseau, SAN et même KVM (à savoir la triplette clavier-écran-souris pour manipuler localement un serveur), on ne trouve plus à l’arrière de l’armoire un groupe de câbles par serveur, mais un groupe de câbles par châssis. Un détail que ne manque pas d’illustrer Yves Capelle : « Prenez une armoire avec quarante serveurs rack 1U (les 2U restants étant dévolus aux switches réseau et SAN). Pour des raisons de redondance et de logistique, chaque rack est branché à quatre câbles réseau, deux câbles SAN, deux câbles d’alimentation et un câble ILO2 (maintenance locale). Ce qui nous fait un total de… trois cent soixante câbles ! Avec une solution blade, vous disposez de soixante-quatre serveurs répartis chez nous sur quatre châssis de 10U (serveurs HP BladeSystem c-Class, avec châssis c7000 et blades Proliant BL460c), lesquels sont individuellement reliés à quatre câbles réseau, quatre câbles d’alimentation, quatre câbles SAN et un câble ILO2, soit un total de cinquante-deux câbles à peine. En gros, nous avons sept fois moins de câbles pour 1,5 fois plus de serveurs dans le même espace ! »

Si les difficultés ponctuelles que pose un nombre trop important de câbles peuvent paraître subjectives, il suffira surtout de retenir un paramètre : le SAN. Cette baie de stockage (qui peut accaparer à elle seule plusieurs U de hauteur) est reliée aux serveurs par une infrastructure Fiber Channel, à savoir un réseau de câbles et de répétiteurs (la « Fabric ») qui coûte bien plus cher que l’Ethernet conventionnel et qui gagne donc grandement à être mutualisé. Selon Yves Capelle de HP, « du point de vue des tarifs, il est plus intéressant de préférer des blades à des racks à partir de huit serveurs. Mais si vous disposez dans votre ferme d’un SAN, alors la solution des blades coûte moins cher dès deux serveurs ! »
Pour Christine Boskov, chef de produit Serveurs chez Fujitsu-Siemens, l’intérêt d’une solution blade a l’avantage de pouvoir se résumer en quelques mots à peine : « Vous avez besoin de cent vingt serveurs ? En racks, cela correspond dans notre catalogue à trois armoires 42U, une consommation de 80 000 watts et sept cent vingt câbles à l’arrière. En blades, nous vous proposons deux armoires, 44 000 watts et cent vingt câbles à peine. »

Blade0324039_Copier10.gifLe câblage, cauchemar de l’administrateur, est réduit de 75 à 85 % grâce aux blades.



Des économies d'énergie difficiles à assimiler

Car, bonne nouvelle, la consommation électrique est au diapason. Selon Nathalie Rotceig, de Dell, « pour dix serveurs, vous aurez dix alimentations 700 watts dans une solution à base de racks 1U et seulement quatre alimentations 1 000 watts dans notre châssis 7U, lequel peut accueillir dix blades PowerEdge 1955 ». En comptant un tarif EDF professionnel de 0,08 euro par kWh, les blades permettent ainsi d’économiser un peu plus de 2 100 euros sur la facture d’électricité de dix serveurs fonctionnant à plein régime, 24h/24 pendant un an. L’économie réalisée n’est pas anodine puisqu’elle correspond au prix généralement constaté d’un serveur blade.
Chez HP, on passe même au cran supérieur avec le dispositif Dynamic Power Saver, lequel bascule la totalité de la consommation sur le nombre minimum d’alimentations et éteint celles qui ne servent pas. Puisque l’économie réalisable dépend de la charge sans cesse mouvante des serveurs, on peut difficilement l’évaluer. Néanmoins, un document interne à HP cite l’exemple d’une réduction moyenne de 35,2 watts pour un châssis HP BladeSystem c7000 de seize blades. Christine Boskov, chez Fujitsu-Siemens, affirme quant à elle que les solutions blades de Fujitsu-Siemens permettent de réduire de 25 % en moyenne la facture électrique. Selon Pascal Roussel chez IBM, « l’économie d’énergie est l’un des points les plus intéressants d’une solution blade, mais c’est également le point que nos clients ont le plus de mal à assimiler dans le sens où il ne correspond pas à un retour sur investissement immédiat ».
La baisse de la consommation électrique ne s’explique pas que par le partage des alimentations entre les serveurs, elle est à l’identique liée à la réduction du nombre de ventilateurs. Selon Jean-Yves Pronier de Sun Microsystems, « que ce soit à l’aide de serveurs racks SunFire X4600 (4U, huit processeurs à double cœur) ou de châssis SunBlade 8000 complets (19U, dix blades de quatre processeurs à double cœur), on peut disposer quatre-vingts processeurs à double cœur dans une armoire 42U. Mais dans le premier cas, nous avons cent vingt ventilateurs (douze par serveur rack) et, dans le second, seulement trente-six (dix-huit par châssis SB8000, avec au maximum deux châssis par armoire). En effet, l’unicité du châssis nous permet de disposer des trajectoires de refroidissement transversales qui profitent à tous les serveurs blades, alors que celles-ci sont ponctuelles sur chaque serveur en rack ». À ce petit jeu, le châssis BladeCenter H d’IBM semble battre tous les records, puisqu’il ne comporte que deux ventilateurs pour les quatorze blades embarqués alors que le même nombre de serveurs IBM en racks totalise… cent douze ventilateurs (huit par rack) ! Le design miracle est breveté : il s’appelle Calibrated Vectored Cooling est a été inventé pour les mainframes du constructeur.
p.2
Réduire
Un marché en plein essor : +100% par an !

Bref, les solutions blades présentent des avantages sur tous les fronts et satisfont ainsi les besoins les plus hétéroclites. Pascal Roussel d’IBM en témoigne : « Nous avons des clients à la Défense qui y voient l’opportunité d’optimiser les mètres carrés et le système de refroidissement de leur salle IT, des PME qui se réjouissent de la simplicité d’administration et de l’économie réalisée ou encore des grands comptes qui apprécient la versatilité des configurations, (notamment dans le cadre des commutateurs intelligents LAN et SAN, modules totalement interchangeables à l’arrière des châssis). »
À partir du moment où l’on sait que les serveurs blade sont « hot swappable », c’est-à-dire que de surcroît ils se remplacent juste en appuyant sur un bouton d’éjection pour extraire la lame défaillante et en poser une fonctionnelle à la place, sans rien avoir à débrancher ni à éteindre, on se sentirait presque animé d’une envie d’applaudissement frénétique ; notamment par solidarité envers les administrateurs dont le quotidien bascule soudainement dans la plénitude. Un enthousiasme dont ne se prive pas le très sérieux observatoire IDC, lequel prédit que les blades constitueront 11 % des ventes de serveurs en 2006 et 25 % en 2009 ; l’observatoire Gartner annonce pour sa part 20 % en 2008.

Blade0224389_Copier5.gif

Du point de vue des constructeurs, Dell se targue de vendre aujourd’hui 40 % de serveurs consolidés au format blade, le reste étant encore des racks, et HP parle plutôt de 25 %, bien que la progression des ventes de blades d’une année sur l’autre serait de 100 %. Pour Fujitsu-Siemens, les blades correspondent à 5 % du chiffre d’affaires des serveurs x86 tous formats confondus. Chez IBM, numéro 1 des blades depuis deux ans et demi, et titulaire aujourd’hui de 40 % de parts de marché dans le monde, on n’hésite pas à déclarer que le format blade connaît ces temps-ci la plus forte croissance qu’un produit x86 ait jamais connue.


Quelles limites ?

Certes. Sauf que… les serveurs blades sont apparus sur le marché en 2001 et les entreprises ne manifestent leur engouement pour cette solution que depuis l’année dernière. Pour Pascal Roussel, chez IBM, il n’y a rien de bien étonnant à cela : « Il est classique que les clients attendent qu’une solution mûrisse avant de l’adopter. De même, on observe que la carrière des blades a doucement commencé avec des applications simples comme l’hébergement Web. Mais ces serveurs peuvent désormais faire tourner toutes les applications, y compris les plus critiques, surtout s’il y a une infrastructure de stockage derrière. » Un élément que corrobore Yves Capelle, chez HP, tout en sous-entendant qu’il y a peut-être eu une erreur marketing au départ : « Convaincre nos clients que les blades ne servent pas qu’à faire de l’hébergement Web est la mission qu’il nous reste à accomplir, ce qui n’est pas forcément simple dans le sens où certains constructeurs avaient exclusivement misé leur communication dessus afin que la carrière des lames démarre en trombe ».

Jean-Yves Pronier, chez Sun, nuance quant à lui la largesse du champ d’applications : « Le fait est que l’on met moins de processeurs dans un blade que dans un gros serveur. Ceci implique qu’à nombre égal de processeurs, une ferme de blades souffrira de plus de temps de latence (nombre supérieur d’interconnexions réseau) qu’une ferme de puissants serveurs (nombre supérieur d’interconnexions processeur), pénalisant par conséquent certaines applications qui exigent des temps de latence minimaux pour accéder à des données qui viennent d’être traitées. Se pose également le problème des calculs HPC et des grosses bases de données qui nécessitent des configurations supérieures à huit cœurs et qui ne sont donc pas candidats aux blades ».
Sun réduit néanmoins le problème puisque ses serveurs SunBlade 8000 sont parmi les seuls à embarquer quatre processeurs à double cœur dans chaque lame. Et comme il s’agit d’AMD Opteron de dernière génération, le client a la garantie qu’il pourra directement peupler ses blades avec les prochains modèles de cette puce, lesquels conserveront le même socket mais offriront quatre cœurs au lieu de deux (soit un total de seize coeurs par blade). De son côté, Fujitsu Siemens opte pour une solution alternative, mais qui va dans le même sens, à savoir des blades qui s’emboîtent entre eux pour former un serveur unique doté de seize cœurs.


Portrait-robot d’une solution blade
Puisqu’ils sont disposés verticalement, les serveurs blades occupent une hauteur importante (généralement entre 7U et 10U, voire 19U sur les SunBlade 8000 de Sun). Mais leur faible épaisseur (due à l’absence de toute extension et de tout élément mécanique, si ce n’est un disque dur), leur permet de récupérer plus d’espace en largeur, soit entre huit et seize unités possibles. On dispose ainsi en moyenne de 50 % de serveurs en plus dans une armoire 42U grâce aux blades. À l’intérieur de chaque blade, logent la plupart du temps deux processeurs x86 à double cœur (ce qui fait un total de quatre cœurs), soit deux Intel Xeon « WoodCrest » (série 51x0, jusqu’à 3 GHz, FSB 1 333 MHz, 4 Mo de cache L2) ou deux AMD Opteron 2000 (jusqu’à 2,8 GHz, FSB 800 MHz DDR2, 2 x 1 Mo de cache L2). Pour l’heure, le Xeon d’Intel est réputé pour avoir de meilleures performances et consommer moins d’énergie. L’Opteron d’AMD s’accompagne quant à lui de la promesse d’une mise à jour « imminente » du processeur vers une version comportant quatre cœurs et directement interchangeable sur la carte mère du blade. La norme venant de passer à 8 Go de Ram par cœur de processeur (effet de mode ?), c’est en toute logique que les blades supportent 32 Go de mémoire. Le disque dur de petite taille en Serial-ATA – moins cher – ou Serial-SCSI (deux fois plus rapide) contient le système d’exploitation et les logiciels qui font tourner le serveur, mais pas les données de travail, lesquelles sont stockées sur une unité dédiée à cet effet. L’arrière du blade ne comporte pas la connectique standard, mais juste un slot par lequel passent tous les signaux d’entrée-sortie (ainsi que l’alimentation). Celui-ci est connecté à une carte « fond de panier » dans le châssis, laquelle redirige toutes les entrées-sorties des blades vers des slots destinés à des modules de commutation (switches), lesquels assurent les liaisons réseau (entre le châssis et le reste du réseau, mais également entre les blades d’un même châssis) et SAN (vers des baies de stockage, lesquelles vont contenir les données de travail). En ce qui concerne le réseau, plusieurs marques de switches sont possibles (Nortel, Cisco…) afin que tous les serveurs présents, indépendamment de leur constructeur, puissent partager la même logique de répartition des charges que le reste du data center. Outre le Gigabit Ethernet, qui domine par défaut, l’utilisateur a le choix de doter ainsi ses machines d’un réseau plus particulier, tel que Myrinet ou Infiniband. Il est à noter qu’à l’exception du SunBlade 8000 de Sun, les contrôleurs réseau et SAN ne se trouvent ni sur le fond de panier, ni dans les switches, mais bien sur chacun des serveurs blades. Enfin, dans la plupart des cas, le châssis comporte la triplette de connecteurs clavier-écran-souris pour qu’un administrateur puisse manipuler localement un serveur (ce qui ne devrait normalement jamais arriver), en choisissant la machine cible à l’aide d’un interrupteur. Ce dispositif peut éventuellement se doubler d’un système de contrôle (petit écran LCD ou série de diodes) sur la face avant du châssis.




L’absence de standard

Mais tout ceci n’explique qu’en partie le retard au démarrage des blades, la majorité des clients les utilisant pour faire tourner du serveur d’application. Chez Sun, on plaide coupable ; selon Jean-Yves Pronier, « Il est un fait que nous avions fait les mauvais choix technologiques lorsque nous avons démarré notre activité blade en 2002, avec les serveurs SB1600. Le problème venait notamment d’une topologie réseau aux performances insuffisantes. Si bien que nous avions cessé pendant un temps cette activité et que nous ne la redémarrons aujourd’hui qu’avec une solution, le SB8000, issue de trois ans de R&D et garantissant enfin au client une véritable pérennité. »
Le mot est lâché et Thierry Marseille chez Intel le souligne : « En fait, le seul défaut des blades – si on devait leur en trouvait un – est qu’ils n’obéissent à aucun standard ; chaque constructeur crée le design de ses machines dans son coin, avec des choix propres. Si bien qu’il est tout bonnement impossible d’insérer le blade d’une marque dans le châssis d’une autre ». Avec IBM, Intel a ainsi lancé le chantier du consortium Blade.org, lequel se destine à ratifier un design standard. Hélas, aucun des grands constructeurs de serveurs n’a encore franchi le pas pour les rejoindre, même si Dell considère que la normalisation du format des switches (réseau, SAN) serait effectivement une bonne chose : « La possibilité de choisir librement les marques des commutateurs qu’il utilise et dans lesquelles il a confiance, rassure le client », indique Xavier Crombez, du département Services en solution d’infrastructure.
En revanche, d’autres se montrent bien plus hostiles à l’idée d’un standard. Ainsi, Jean-Yves Pronier de Sun se veut catégorique : « Nous ne voyons pas l’intérêt d’aller dans cette direction, car le client bénéficie au contraire d’une capacité d’innovation qui reste possible tant que nous n’avons aucune contrainte de standard. Ainsi, parce que nous avons eu la liberté de construire un châssis de 19U de hauteur, nous avons pu placer quatre processeurs à double-cœur dans nos blades, ce qui fait que nous pouvons aujourd’hui proposer une armoire 42U avec 160 cœurs de processeurs (soit deux châssis de dix lames chacun) pour une consommation totale de moins de 18 000 watts. Qui dit mieux ? »


Et la virtualisation ?
La virtualisation revient à une consolidation logicielle, puisqu’il s’agit d’exploiter les ressources matérielles disponibles (typiquement le second cœur d’un processeur) pour créer de nouveaux serveurs virtuels. Tous les constructeurs s’accordent à le dire : la virtualisation va de pair avec une solution en blades, mais doit intervenir dans un second temps. Ainsi, selon Christine Boskov, chez Fujitsu Siemens, « il convient de s’assurer d’abord que l’on dispose d’une installation stable en faisant tourner un serveur par blade – les requêtes correspondant à autant de processus indépendants, les deux cœurs des deux processeurs seront de toute manière mis à contribution. Ensuite, selon la charge des différents serveurs et la puissance disponible que l’on observe, il est simple d’activer ou non des machines virtuelles sur les blades ».



Chez HP, constructeur qui a été jusqu’à changer de format de châssis entre ses générations p-Class et
c-Class – ce qui les rend incompatibles –, on balaie l’affaire en s’attaquant au « mythe » de la pérennité : « De toute façon, un client doit remplacer en moyenne ses serveurs tous les cinq ans. Car il n’y a pas que les processeurs des blades qui évoluent, il y a également les technologies d’entrée-sortie (bande passante, réseau, stockage). Et celles-ci se situent dans le châssis, lequel finira donc inévitablement par devenir obsolète », martèle Yves Capelle. Et d’ajouter : « Pour bien faire, il faudrait avoir un nouveau standard tous les cinq ans ; quand on connaît le temps nécessaire pour en mettre un au point… » Pour IBM, qui occupe le marché depuis quatre ans, la pérennité d’une solution blade reste en réalité un facteur toujours inconnu. Ainsi, selon Pascal Roussel, « La simplicité d’installation des blades dans les châssis peut inciter les clients à remplacer plus rapidement leurs serveurs pour intégrer les matériels au dernier niveau de performance. A contrario, les lames ayant moins d’éléments mécaniques, leur durée de vie moyenne est plus importante que celle d’un serveur traditionnel, ce qui peut encourager un client à les utiliser plus longtemps. »

Quoiqu’ils en disent, l’histoire montre néanmoins que toute plate-forme informatique tend à se standardiser à terme. Citons l’exemple des serveurs en boîtier tour devenus ATX ou ceux en racks restreints à 19 pouces de largeur, sans parler des extensions PCI qui passent toutes en ce moment au format PCI-Express. Mais comme le dit Yves Capelle de HP, « Si un jour il devient possible d’insérer une blade Dell ou IBM dans un châssis HP, il faudra alors résoudre le problème de savoir qui appeler lorsque ça tombe en panne. »

p.3
Réduire
Dell PowerEdge 1955, la solution simple et bon marché

Cadre03Dell23149_Copier8.gifChez Dell, on joue la carte de la simplicité pour le client : les prix sont particulièrement attractifs (comptez un tarif de base d’à peine plus de 1 300 euros HT pour un blade), la solution s’installe à l’aide de l’application Altiris majoritairement répandue et l’outil d’administration OpenManage 4 est taillé sur mesure pour orchestrer une batterie de serveurs Windows 2003. Linux (en version RedHat ou SuSE) reste possible, mais Dell le cantonne explicitement aux « serveurs traditionnels comme l’hébergement de fichiers ou de sites web ».
 
Le châssis de 7U intègre jusqu’à dix serveurs blades PowerEdge 1955. On y trouve deux Xeon à double cœur, jusqu’à 32 Go de Ram en barrettes FB-DIMM, jusqu’à deux disques durs 2,5 pouces et un contrôleur Gigabit Ethernet. Un slot d’extension interne permet d’accueillir une carte fille pour ajouter un contrôleur Fibre Channel (vers le SAN) ou Infiniband. Selon Nathalie Rotceig, chef de produit de la division Serveurs, « les cartes filles et les switches qui vont avec à l’arrière du châssis (quatre au maximum) sont ceux de constructeurs partenaires qui dominent leur marché (Brocade, McData, Intel…), et ce, dans un soucis de standardisation ; nous ne voulons pas que nos clients soient prisonniers d’une technologie propriétaire. » Et Dell de reconnaître bien volontiers qu’il chasse sur les terres de la mise à jour des fermes de serveur, en apportant la plus simple des solutions dernier cri pour remplacer des batteries de machines qui accusent le poids des ans.


Des solutions à géométrie variable chez HP

Cadre02HP23060_Copier7.gifLe constructeur HP propose deux solutions blades à son catalogue. La première (famille BladeSystem c-Class) est la plus moderne. Elle correspond au châssis 10U c7000 qui peut accueillir jusqu’à seize serveurs blades Proliant BL460c. Seize ? Oui, mais il y a une ruse : ces blades mesurant 4U et demi de hauteur, ils sont disposés en deux rangés de huit unités superposées. Alternativement, ce châssis peut accueillir au maximum huit serveurs blades Proliant BL480c de 9U. Le reste de la façade avant est occupé par un maximum de six alimentations et un petit écran LCD de contrôle ILO2. À l’arrière, on trouve six ventilateurs, huit baies destinées à accueillir les switches additionnels (simple ou double hauteur) et la connective KVM.

En ce qui concerne les deux modèles de serveurs blades, ils comportent chacun deux processeurs Xeon 51x0. La différence se fait sur le nombre de leurs autres composants, à savoir 32 ou 48 Go de Ram, deux ou quatre mini disques durs SFF extractibles (pas de nappe), deux ou trois slots d’extension, deux ou quatre contrôleurs Gigabit Ethernet. Les slots d’extension sont disposés en mezzanine et se destinent à accueillir des contrôleurs Fibre Channel (pour le SAN), Infiniband ou encore 10 Gbits Ethernet.

La seconde famille, la BladeSystem p-Class, est plus ancienne, mais a le mérite d’être plus versatile, puisque les serveurs blades qu’elle accueille contiennent aussi bien des processeurs AMD Opteron (serveurs Proliant BLx5p avec la génération précédente d’Opteron), qu’Intel Xeon (récemment mis à jour sur le serveur BL20p avec les derniers Xeon 51x0) et qu’Intel Itanium (serveur BL60p, destiné à exécuter le système d’exploitation HP-UX et les applications idoines). Même dans ce dernier cas, le processeur correspond à la génération précédente, Madison, qui ne possède qu’un cœur. En fait, tout porte à croire que le constructeur basculera à terme l’ensemble de son offre sur sa famille BladeSystem c-Class.


Sun SB8000, le PCI-Express comme potion magique

Cadre05Sun23158_Copier9.gifLe châssis SB8000 de Sun est de loin le plus imposant avec ses 19U. Sa hauteur exotique s’explique par deux baies de ventilation en façade qui surplombent jusqu’à dix blades, eux-mêmes d’une hauteur inhabituelle car ils embarquent chacun quatre AMD Opteron à double cœur (contre deux généralement). Nous l’avons dit : cet Opteron-là sera physiquement interchangeable avec son successeur doté de quatre cœurs (même socket). Mais Sun joint l’engagement à la théorie : ses clients peuvent souscrire au programme « Evergreen » qui leur assure une mise à jour permanente de leurs blades vers la version la plus récente du processeur. Le reste de chaque blade comprend jusqu’à 64 Go de Ram, deux disques durs 2,5 pouces, un contrôleur PCI-Express et… aucun contrôleur réseau ou SAN !

Car voilà la particularité de cette machine : en reliant le serveur au fond de panier par l’intermédiaire du PCI-Express (bus d’extension), le SunBlade 8000 bascule le contrôleur réseau et/ou SAN dans les modules arrière de connexion, c’est-à-dire à l’intérieur de ce qui fait office de switch. La solution n’en devient que plus pérenne (Sun parle de sept ans) puisque l’on peut dès lors améliorer toutes les capacités d’un Datacenter en remplaçant juste des modules serveurs ou des modules switch, sans jamais avoir à toucher au châssis.

À noter que le large espace à l’arrière du SB8000 permet d’accueillir vingt modules PCI-Express « hot plug » (l’offre va du switch Infiniband 4x au 10 Gigabit Ethernet, en passant par du Fiber Channel), plus vingt ports Gigabit Ethernet directs répartis sur quatre modules. Sun oblige, cette solution sert aussi bien à faire tourner des serveurs Windows ou Linux que Solaris. D’ici à l’année prochaine, le constructeur devrait étoffer son offre de blades avec des serveurs plus petits mais n’embarquant que deux processeurs, voire des serveurs à base des nouvelles générations de processeurs SPARC (pour les applicatifs Unix sous Solaris).


IBM, l’offre blade la plus hétéroclite

Cadre04IBM23245_Copier12.gifRécemment évolué en version « H » pour offrir plus de bande passante sur son fond de panier, la châssis 9U BladeCenter d’IBM (capacité de quatorze blades) a le mérite de conserver une compatibilité ascendante avec tous les serveurs lame que le constructeur a pu proposer depuis 2002. Tous ? Eh oui, car il s’agit de la particularité d’IBM : son catalogue comprend des blades à base de Xeon (HS20, pour la puissance), d’Opteron (LS21, pour l’évolution prochaine en quatre cœurs), de PowerPC (JS21, pour faire tourner les applicatifs Unix sous AIX ou Linux), ou encore de Cell (variante du PowerPC dotée de huit unités vectorielles, issu de la console Playstation 3 et ici destiné à calculer des simulations). Il y a même des serveurs « double-lame » à base de quatre Opteron (LS41) ! Évidemment, tout ce petit monde peut se côtoyer dans le même châssis sans que cela ne nuise aux outils d’administration.
Si les serveurs partagent tous les mêmes caractéristiques (deux processeurs à double cœur, 32 Go de Ram, deux disques durs 2,5 pouces Serial-SCSI, un contrôleur Gigabit Ethernet et, ce qui reste encore rare, un connecteur PCI-Express 17X), la surprise vient en revanche du châssis qui, en révision H, apporte suffisamment de bande passante pour supporter des entrées-sorties en 10 Gigabit Ethernet, 10 Gigabit Fibre Channel et Infiniband 4X. À ce titre, IBM œuvrant avec Intel pour normaliser le format des blades, toutes les plus grandes marques de commutateurs (Nortel, Cisco, Brocade, McData, QLogic…) proposent des modules pour le BladeCenter. Notons également la présence en façade d’un lecteur de DVD ultrafin, ainsi que de deux connecteurs USB (toujours pour accueillir des mémoires de masse d’appoint).
 

Primergy BX600, le blade ultra modulaire selon Fujitsu-Siemens

Cadre06Fujitsu23275_Copie13.gifAvec son châssis de 7U, qui embarque dix blades, la solution Primergy BX600 de chez Fujitsu-Siemens ressemblerait presque comme deux gouttes d’eau à celle de Dell. À un détail près, toutefois : on trouve dans l’offre de Fujitsu aussi bien des serveurs Xeon (BX620S3), qu’Opteron (BX630). Équipés de la toute dernière version 51x0 « Woodcrest », les premiers jouent la carte de la rapidité avec leurs quatre cœurs cadencés jusqu’à 3 GHz. Et les seconds… celle de la puissance.

Tirant profit du bus direct des processeurs d’AMD (HyperTransport ), Fujitsu a eu l’idée de relier les blades deux à deux par leurs processeurs, en plus de la connexion qui existe entre eux sur le fond de panier ! Il en résulte un maximum de quatre blades qui se comportent comme un seul serveur (c’est-à-dire sous l’égide d’un seul OS, voire d’un seul gestionnaire de machines virtuelles) équipé de huit Opteron à double cœur. Cette prouesse résout les problèmes de latence, préjudiciables aux applications les plus critiques.
Gestion de parc
Réduire
LES SOLUTIONS DE GESTION DE PARC
PME, reprenez la main sur votre équipement informatique !
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Les responsables micro des PME ont toujours le mauvais rôle ! Dès qu’on les interroge sur un état précis du parc dont ils s’occupent, en matériels et en logiciels, les réponses sont le plus souvent imprécises et satisfont rarement les dirigeants des entreprises. Alors, comment mettre en place une véritable gestion de parc dans les entreprises de 100 à 2 000 postes sans trop gonfler la charge de travail ?

Les PME manquent trop souvent de moyens financiers et de ressources internes. Il leur est ainsi difficile de dégager de quoi suivre au plus près leur parc de matériels et logiciels. Édouard Lesquelen, directeur général adjoint d’Apsynet, un éditeur de solutions de gestion de parc, indique qu’« il faut compter environ un informaticien pour 100 postes. Mais les parcs entre 50 et 400 postes ont été longtemps les laissés pour compte ». Pourtant, il existe des outils et des méthodes pour permettre aux équipes d’exploitation de gérer cela au mieux sans véritablement ajouter à la charge de travail. Ils assurent même souvent un gain de temps sur des opérations techniques de maintenance ou de support.


Une situation chaotique

Le besoin de tels outils se fait largement sentir. La plupart des entreprises de 100 à 2 000 postes ont rarement rationalisé le processus d’achat des machines. En conséquence, le parc est souvent très hétérogène : configurations différentes, packages logiciels discordants, avec plusieurs versions d’OS… Chaque opération de maintenance devient plus ou moins spécifique entraînant des coûts souvent difficiles à supporter.

KOEHLER11859_Copier5.gifSelon Geneviève Koehler, chef de produit des outils d’administration chez Microsoft, « La situation n’est pas vraiment meilleure dans les grands comptes. L’inventaire est rarement réalisé sur l’ensemble du parc et des pans entiers ne sont pas couverts. » Avec Vista se profilant à l’horizon, il devient parfois urgent d’agir et de savoir s’il est possible ou souhaitable de migrer. Pour cela, les outils de gestion de parc apportent souvent une solution qui peut perdurer dans le temps et permettre de reprendre le contrôle sur les parcs logiciels et matériels. À la clé, des gains de temps pour les équipes d’exploitation et de support et des économies substantielles.

Ces logiciels ne sont cependant pas adaptés à tous les parcs. Cent postes semblent un minimum. Pourquoi ? À partir de cette limite, même bien entraînée, la mémoire de la personne en charge de ces questions ne peut se souvenir de toutes les configurations en place ou des particularités d’un parc sur des machines spécifiques.
En dessous, la puissance des outils ne se justifie guère. D’ailleurs la plupart des services informatiques de telles entreprises ont développé des outils à façon, soit à la main, soit avec un suivi manuel sur un tableur. La principale question est alors de réaliser un comparatif entre le parc présent dans l’entreprise et la déclaration réalisée par le service comptable comme base pour la taxe professionnelle dans le calcul des immobilisations.
Cédric Cibot-Voisin, responsable des opérations chez FrontRange, évoque le surdimensionnement de certaines solutions dans les entreprises.


Un projet d’entreprise

Souvent, la prise de conscience du besoin se réalise suite à un courrier du BSA (Business Software Alliance) ou d’un éditeur demandant un état réel des licences valides dans l’entreprise. Les dépenses de maintenance et les indisponibilités de certains postes critiques sont un autre catalyseur d’un projet de gestion de parc. Là, l’objectif est de réaliser des économies et d’alléger les tâches des équipes prenant en charge l’exploitation du parc.
Le projet est ainsi nécessaire lors de la mise en place d’une cellule de help desk pour les utilisateurs de l’informatique de l’entreprise ou, fin du fin, d’un service desk induisant la transformation du service informatique en centre de services vers les utilisateurs de l’entreprise et ses partenaires.

À ce niveau, la gestion de parc devient un réel projet d’entreprise et doit répondre à certaines contraintes comme celles qui s’imposent au sponsor de projet vis-à-vis de la direction générale. Une structure projet suivra et fera vivre le projet dans le temps et suscitera l’adhésion des utilisateurs.
Dans ce cas, dès le début du projet doivent se dessiner les buts à atteindre. Ils vont influencer le choix des outils. Ceux-ci se décomposent principalement en deux familles :
• des outils de gestion de parc purs, avec une approche « administrative » visant à une gestion financière du parc ;
• et des outils avec une approche « technique » ayant pour fonction de mettre en place des outils de gestion des OS, patchs… Ils s’appuient principalement sur des possibilités de télédistribution, même s’ils prennent en compte la gestion administrative du parc.

Cette subdivision est importante pour correspondre aux buts du projet et répondre aux véritables besoins de l’entreprise. Il s’agit donc de ne pas se tromper, et ce, dès le début du projet, avant de mettre en place une organisation adaptée : ressources allouées et processus.



Les règles d’or d’un projet
Geneviève Koehler, chez Microsoft, propose une marche à suivre claire pour réussir un projet de gestion de parc et le faire vivre dans le temps. Elle indique ainsi que « l’inventaire doit se faire sur une base régulière. Il faut aussi déterminer les logiciels dont les utilisateurs ont réellement besoin. Une personne nommée doit prendre en charge l’achat de ces logiciels. Elle devra conserver toutes les preuves d’achats (certifications, manuels d’utilisation). Les achats doivent se réaliser auprès d’un revendeur. Des procédures doivent être formalisées pour l’utilisation et la formation sur ces logiciels. Mettre en place ces éléments d’organisation est en soi un projet ».




Les processus à mettre en place

Dans le domaine, les PME se comportent comme les plus grandes entreprises. Ainsi, le renouvellement des machines intervient par tranches de tiers de parc tous les 3 ans. Cette fréquence est calée sur la période d’amortissement et, le plus souvent, sur la durée de vie des matériels pour remplir leurs tâches sur des applicatifs métier. Après, il devient difficile d’avoir des matériels adaptés pour répondre aux évolutions des applications dont les nouvelles versions demandent souvent plus de capacité mémoire/disque ou une version de système d’exploitation supérieure.
Il semble ainsi souhaitable de rationaliser la démarche dès l’achat et d’éviter l’acquisition machine par machine lorsqu’un employé arrive dans la société. L’achat en lots permet aussi de négocier avec le fournisseur pour obtenir des prix plus intéressants et d’homogénéiser dès le départ une partie du parc. C’est déjà ça de gagné !

Ensuite, les buts du projet vont vous guider sur les processus à mettre en place. Il est utile de se référer à des référentiels de bonnes pratiques. Il n’est pas question de mettre tous les livres d’ITIL en place, mais de les adapter au contexte de votre entreprise. Il est nécessaire de se rappeler que le processus à mettre en œuvre doit pouvoir être contrôlé et géré sans alourdir le travail inutilement. D’ailleurs, les outils vous proposeront souvent par défaut des processus. Les logiciels de PS Soft permettent ainsi la modélisation graphique de ceux-ci. Les différentes tâches sont intégrées et le lien se réalise par des API vers les différentes bases d’information concernées. Dans le domaine, il faut garder en tête que les processus doivent permettre d’atteindre les buts du projet : des économies sur le parc et l’allègement de certaines tâches de vos équipes de terrain. Il ne s’agit pas non plus de mettre la charrue avant les bœufs ! Avant de pouvoir travailler sur la gestion du parc, il est évidemment nécessaire de savoir ce qui est présent dans l’entreprise.
Quelle que soit l’approche de projet choisie, administrative ou technique, il convient de soigner la phase de l’inventaire. Celui-ci représente la première brique indispensable sur laquelle va s’appuyer tout l’édifice de la gestion du parc.


Incontournable inventaire

elq11867_Copier6.gifUne étude du cabinet IDC montre l’étendue du manque : 26 % seulement des entreprises réalisent un inventaire précis et permanent ; 15 % font encore cet inventaire manuellement. Il existe d’ailleurs des outils gratuits pour conduire ce type d’opération. Le problème de l’approche est d’augmenter le coût de maintenance de tels outils spécifiques souvent peu intégrés au reste du système informatique. L’inventaire permet de connaître finement les matériels et les logiciels présents sur ces matériels. Les outils doivent donc être assez puissants et posséder une base de données facile à administrer et à gérer. Pour le réaliser, il existe plusieurs méthodes. La plus prosaïque est de faire le tour des bureaux et d’entrer les matériels et logiciels présents dans la base de données. Nous ne la citons que pour mémoire ! Édouard Lesquelen (Apsynet) indique que « par cette méthode, on peut travailler sur environ 30 machines par jour ; au pire sur 10. Si les sites sont distants ! »
La plupart des outils du marché utilisent des agents actifs à installer sur les postes. Cette installation se réalise manuellement ou par des scripts d’installation. Après l’installation, ceux-ci remontent les informations du poste vers un serveur central où se positionne la base de données d’inventaire. Dans les canons d’ITIL, on peut la comparer à une CMDB (Configuration Management Data Base).
D’autres outils se positionnent sur le réseau de l’entreprise et réalisent la découverte des matériels présents et remontent les informations. Selon votre entreprise, le choix de la méthode d’installation peut être plus ou moins adaptée.
Les outils présents sur le marché sont très puissants et peuvent réaliser des inventaires très fins. On peut ainsi entrer dans la base de données jusqu’au moindre composant de la machine ou le moindre port de connectivité. Mais ce n’est pas toujours utile. Il faut donc s’interroger sur la granularité de cet inventaire. Si une migration est envisagée, il serait cependant peut-être intéressant de connaître le nombre de slots mémoire disponibles. Là, il n’y a pas d’école prédéfinie. Il est possible de remonter le maximum d’informations et de choisir ensuite celles qui sont pertinentes ou, dès le départ, de faire le tri sur les informations à remonter. Pour se décider, la bonne pratique est de conserver à l’esprit que ces données doivent servir d’éléments pour des rapports sur lesquels il est possible de travailler et de mettre en place des actions. Ainsi, lorsqu’un logiciel installé n’est utilisé que deux fois par an par les utilisateurs ; faut-il le conserver ou non ? Peut-on réduire le nombre de licences de ce logiciel ?
Ces rapports doivent véritablement accompagner l’effort d’une réflexion et apporter des éléments pertinents aux équipes de terrain et des indicateurs utilisables par la hiérarchie.


Les grands éditeurs convoitent le secteur
La plupart du temps, par rachat de sociétés ou de technologies, les grands noms du secteur informatique se sont construits des solutions pour gérer les postes de travail de leurs clients. BMC a été un peu le précurseur avec le rachat de Remedy. HP, Computer Associates et IBM sont aussi présents. La logique de ces grands éditeurs est de compléter leur offre de gestion des systèmes d’information pour une gestion de bout en bout du poste au data center dans une approche ITIL globale. Ils investissent peu à peu un marché de spécialistes qui essaient de résister.



Comme auparavant, il est aussi important de pouvoir gérer ces informations. Pourquoi remonter des informations sur un composant sur lequel vous ne pouvez pas agir ? Certains produits incluent les périphériques. Là encore, faut-il tous les enregistrer ? Des périphériques, comme les scanners ou les imprimantes, induisent des dépenses importantes en consommables ou en maintenance. Il est probable que leur enregistrement dans la base est souhaitable.
Serge Ribeiro, chef de produit chez Landesk Software, indique d’ailleurs que des utilitaires comme WebJet Admin d’HP sont des outils très utiles pour suivre le parc d’imprimantes et profiter, là aussi, d’économies. Le produit de Landesk s’interface avec les principaux outils fournis par les constructeurs de périphériques pour prendre en compte dans le parc ces matériels.

Il en va de même avec certains périphériques mobiles. La problématique sur ces matériels est lourde. Leur durée de vie est moindre que pour les autres matériels et les packages logiciels changent plus rapidement. L’inclusion de tels matériels dans la base de données peut s’avérer fructueuse, mais représente des efforts supplémentaires.
Des logiciels, comme celui de l’entreprise Anatole, permettent même de gérer le parc et la consommation des téléphones mobiles. Il se comporte comme un produit compagnon pour d’autres produits de gestion des matériels mais reste autonome, d’où des efforts d’interface à réaliser. Bon an, mal an, il est donc possible de gérer quasiment tous les matériels et logiciels. Mais est-on toujours capable de tout gérer ?

Suivant les éditeurs, les préconisations de fréquence de l’inventaire vont d’une fréquence quotidienne à une fois par an !


Rationaliser le parc logiciel et son utilisation

La seconde partie importante de l’inventaire concerne les logiciels. C’est le poste où il est possible de faire de réelles économies. L’inventaire, s’il a été réalisé dans les règles de l’art, vous permet de savoir quels sont les logiciels présents sur les machines et de connaître leur utilisation. Dans un premier temps, nous l’avons déjà évoqué, il est possible de rationaliser le parc logiciel sur les outils les moins utilisés. Ce point est loin d’être négligeable. Sur des logiciels inclus dans les suites bureautiques ou des logiciels comme AutoCad, il est ainsi possible de réaliser des économies importantes du fait du prix des licences ou du support afférent.
Par ailleurs, il devient aussi possible de rationaliser les postes de travail en mettant progressivement en place les mêmes OS sur tous les postes. Il est assez facile de mettre en place deux types de packages logiciels plus ou moins standard : un package bureautique comprenant l’OS, les outils bureautiques, les utilitaires (Acrobat Reader, Winzip…) et des outils de sécurité d’une part, de l’autre un package plus spécifique comprenant, suivant les rôles ou les fonctions dans l’entreprise, des applicatifs métier ou plus spécialisés (Photoshop, AutoCad, logiciels comptables…).

Patrice Cottereau, responsable technique de Supporter ajoute que « si la fonction de télédistribution n’est pas présente, il semble indiqué de réaliser des packages très complets ». Pour gérer les rôles ou fonction, les outils du marché autorisent la reprise des annuaires d’entreprises de type LDAP ou compatibles.
À terme, le parc s’homogénéise. Le support et la maintenance sont simplifiés. Un utilisateur appelle le support sur une configuration unique avec des logiciels connus du support et donc maîtrisés.
Dans ce contexte, des outils, d’orientation plus technique, peuvent aider à maintenir la cohérence de ces packages logiciels et leur évolution.
Des aides techniques

Un axe d’économie intéressant est d’augmenter la disponibilité des postes et d’essayer de minimiser les possibilités d’incidents gênant les utilisateurs. Il convient ainsi de penser à suivre les évolutions de sécurité des logiciels installés, de les mettre à jour et de prévoir leurs évolutions futures. Les outils présents sur le marché apportent des aides techniques par la télédistribution, la gestion des patches et le déploiement de systèmes d’exploitation. On peut y ajouter la prise en main à distance par le support. Même si certains considèrent cette fonction comme du confort.

Dans des entreprises multisites, la mise en œuvre de la télédistribution ne pose guère de question et se révèle rapidement indispensable. À moins de continuer à vouloir que les informaticiens se balader encore d’un site à l’autre à chaque mise à jour ! Vu le coût de tels outils, la question peut se poser sur les entreprises ne comprenant qu’un seul site. L’attrait de cette fonction augmente avec le nombre de postes présents dans l’entreprise.
Une autre méthode est de mettre en place un « self-service » d’applications par un réseau. La définition du rôle dans l’annuaire donnerait ainsi des droits pour télécharger une application et l’utiliser sur son poste de travail. La formule a l’avantage de ne pas solliciter un membre de l’équipe informatique pour une installation tout en conservant le contrôle sur ce qui est utilisé au niveau logiciel.

De la même manière, les outils de gestion des patches sont intéressants car ils permettent de décharger, en partie, l’équipe d’exploitation des tests à effectuer lors de la livraison des patches. Ainsi, PatchLink réalise les tests sur ces serveurs avant de les fournir par sa solution vers les serveurs ou les postes de l’entreprise. Certaines mésaventures récentes sur des mises à jour bloquant certaines applications ou provoquant des crashes sont ainsi évitées.

Les outils de déploiement de systèmes d’exploitation peuvent se révéler utiles. Cependant, leurs coûts et leur utilité dans des petites structures sont moins évidents. Celles-ci achètent souvent leur machines déjà équipées d’un tel logiciel avec un support du constructeur. Son utilité dépendra donc du contexte de votre entreprise. Cela peut être utile si votre entreprise a choisi de basculer les postes de travail sous Linux avec des outils moins prisés des revendeurs informatiques !
Dans le même ordre d’idée, la prise en main à distance peut se révéler être un véritable outil de productivité pour vos équipes de support n’ayant plus à attendre les actions à réaliser par un utilisateur plus ou moins formé, ou plus ou moins au fait des capacités de son poste de travail. D’ailleurs, ce n’est pas le travail de l’utilisateur et il n’a pas à se transformer en informaticien !

Nous avons essayé cette fonction sur l’installation à distance pour un logiciel de back up en ligne, Adbackup d’Oodrive. Une affaire pliée en moins de cinq minutes ! Alors, nous faisons chœur avec les personnes interrogées lors de cette enquête. La prise en main à distance est vraiment un outil de confort, mais qu’est ce que c’est bon ! Comme la télédistribution, l’investissement dans cette fonction semble nécessaire dans le contexte d’une société ayant à gérer de nombreux sites employant des personnes peu formées sur leur poste de travail.


Les matériels meurent aussi !

Demontage11878_Copier7.gifSi les matériels entrent dans un inventaire, ils en sortent aussi. Cette opération n’est pas anodine, car elle doit être organisée. Il ne suffit pas, la plupart du temps, de rayer la mention de la machine dans la base de données. Il faut prévoir les impacts sur les licences logicielles. Les licences présentes seront-elles réutilisées ? Dans quel cadre ? Sur quel poste ? Vu le prix d’une licence Office ou AutoCad, il est bon de se poser la question.
La problématique se renforce avec l’obligation européenne de traiter la fin de vie des matériels électroniques. Là encore, un potentiel économique intéressant se révèle. Sur le marché de l’occasion, les machines fonctionnant encore ont une valeur. Cette valeur n’est pas énorme, mais pour une machine acquise 1 000 euros, et bien sur amortie, il reste intéressant de pouvoir en tirer entre 50 et 150 euros…

Des revendeurs se sont spécialisés sur ce marché. Ainsi, ATF valorise ce type de parc auprès de grandes sociétés d’outsourcing et est devenu une société reconnue dans la fourniture de pièces détachées à destination du marché de la maintenance des machines. Sylvain Couthier, son P-DG, indique d’ailleurs que le marché de l’occasion de matériels informatiques est en train de se structurer avec un intérêt particulier pour les postes portables.

Il est aussi possible de récupérer des composants utiles : mémoires, cartes graphiques… Ceux-ci peuvent retrouver une place sur un autre poste du parc et donner une nouvelle énergie à un poste vieillissant. Il en va de même pour certains postes anciens reconfigurés en serveur de messagerie ou pour d’autres fonctions ne demandant pas des puissances extraordinaires.


Des outils Open Source et gratuits pour vos opérations de gestion de parc
Si les produits sont nombreux sur le marché, il existe aussi quelques produits Open Source gratuits pour réaliser certaines opérations comme les inventaires. Le plus connu est OCS Inventory. Il permet de réaliser des inventaires automatiques sur les matériels et les logiciels. Le produit est puissant et stable. Dominique Beccia, consultant chez Kimoce, avoue l’utiliser couramment en complément de son produit Kim Help desk et Kim Parc. Sur les autres fonctions, il existe GLPI (Gestionnaire Libre de Parc Informatique), qui est très complet. Ce logiciel téléchargeable sur glpi.org s’utilise conjointement avec OCS Inventory. Une véritable alternative si vous avez la possibilité de gérer l’intégration et la maintenance de ses produits. Il existe aussi GestParc qui a la particularité de réaliser un suivi des consommations et des stocks.




Des bénéfices substantiels

Les gains attendus de la gestion de parc sont de différents ordres. Ils sont tout d’abord économiques. Si aucun outil n’était présent auparavant, la gestion du parc peut apporter au bas mot 30 % d’économies, et tous les intervenants s’accordent sur ce chiffre. Selon les solutions et le périmètre choisi, le retour sur investissement s’étale sur 12 à 18 mois. Les autres bénéfices sont plus difficiles à quantifier.
Les équipes perdent moins de temps à gérer les mises à jour, les patches. Ce temps dégagé peut annuellement se chiffrer par dizaines ou par centaines d’heures dégagées pour des tâches plus utiles pour l’équipe informatique. La gestion de parc est donc un outil dont la justification économique est de permettre de réaliser des projets plus intéressants pour le métier de l’entreprise que la gestion manuelle et quotidienne des ressources matérielles et logicielles informatiques.

Autre gain, les solutions augmentent la disponibilité des postes de travail ce qui normalement implique une hausse de la productivité et une satisfaction accrue des utilisateurs. Hélas, il n’y a pas encore de compteur économique pour savoir combien rapportent des employés satisfaits !

Pour parvenir à ces buts, les clients s’orientent vers des logiciels intégrés regroupant les différentes fonctions, évitant ainsi d’avoir à gérer une maintenance de différents outils évoluant à des rythmes différents. Patrice Cottereau (Supporter) dépeint la situation comme « des économies de bouts de chandelles ! ». La réduction des coûts, même dans la gestion de parc, reste le réel catalyseur des projets.


Les principales offres du marché
• Apsynet
• Altiris : Asset Mangement Suite
• BMC : IT Service Management Solutions, Close Loop…
• Computer Associates : Unicenter Asset Portfolio Management
• Criston : Precision
• FrontRange : Heat
• HP : Openview
• KDD : Park Administrator
• Kimoce : Kim Parc
• Landesk Software : Landesk (inventory, manager, asset manager)
• LandPark (manager, inventory, help desk)
• PCI Info : Gimi
• PS Soft : Qualiparc
• Pytheas : Asset Management
• Staff & Line : Actima
DotNet 2.0
Réduire
DOTNET 2.0
Krypton : un excellent kit de contrôles IHM gratuits
Par Frédéric Millot - Copyright L'Informaticien

Le Krypton Toolkit vous permet d’améliorer facilement et gratuitement les interfaces de vos applications, aussi bien sur le plan ergonomique qu’esthétique. Découvrez avec nous pourquoi il vous le faut !

Les développeurs professionnels le savent bien, concevoir une Interface homme-machine (IHM), c’est tout un art. Pour qu’elle soit réussie, elle doit en effet combiner ergonomie maximale et look attrayant, deux dimensions dans lesquelles erreurs de conception et fautes de goûts sont légion. On sait pourtant globalement comment faire, au moins pour l’ergonomie. Les premières recommandations pour Windows remontent aux tous débuts de l’OS – qui n’était alors qu’une interface graphique – et entre ces CUA (Common User Access guidelines) et les préconisations dont s’assortit Vista aujourd’hui, les années ont permis de valider ce qui fonctionne et ce qui fonctionne moins.

Il serait téméraire de vouloir résumer ces acquis en quelques principes simples, mais la grande affaire reste tout de même le placement du curseur entre simplicité et alternatives multiples. On observe immanquablement que trop de possibilités nécessitent pour l’utilisateur une mémorisation, une évaluation et un arbitrage qui nuisent à l’efficacité. On remarque aussi que les interfaces les plus appréciées, donc les mieux utilisées, sont justement celles où le contrôle parle de lui-même à l’utilisateur. Idéalement, les contrôles doivent pouvoir indiquer leur état, donc ce qu’ils autorisent comme action. Ils doivent le faire de façon uniforme sur tout le périmètre de l’application, et suivant le cas afficher un texte, un symbole graphique ou une couleur qui représente l’événement qu’ils vont déclencher et le traitement fonctionnel qui va s’ensuivre.


Un écosystème d’éditeurs tiers

Pour évidentes qu’elles soient, ces règles d’or sont loin d’être toujours appliquées. Un examen même rapide des 10 premiers logiciels qui vous tomberont sous la main vous le montrera. Manque de systématisme dans le « feedback » des contrôles à l’utilisateur, manque de rigueur dans le déploiement de codes couleur, manque de clarté/attractivité de la présentation des fenêtres principales et des dialogues… Ces petites approximations, qui certes n’empêchent pas le programme de fonctionner, font toute la différence entre une application professionnelle et un travail bâclé.

Mais ne jetons pas le développeur avec l’eau du bain, car il n’a généralement pour travailler qu’une palette limitée. Au minimum, il y a les contrôles système : bouton poussoir, étiquettes, zones de saisie, listes avec ou sans saisie, cases à cocher et boutons dits « radio ». Une liste courte, dont les membres n’offrent que peu de possibilités de personnalisation, ce qui en contrepartie a pour avantage de proposer une certaine uniformité aux logiciels sous le même OS. Ensuite, il y a les « extras » qu’offrent les grands environnements de développement. Il s’agit le plus souvent de contrôles orientés Web ou à vocation fonctionnelle spécifique, et de conteneurs servant à organiser les contrôles contenus. Si certains éditeurs – dont notamment Borland – font un vrai effort sur la variété offerte, force est de constater que c’est loin d’être toujours le cas. Outre le coût en développement et en maintenance, il y a à cela une autre explication. Autour des grands IDE existe un écosystème d’éditeurs tiers, lesquels vivent de leurs contrôles complémentaires, et il serait évidemment dommage que leurs produits disparaissent, car certains sont vraiment excellents.

Il nous faut donc, à nous tous développeurs DotNet, des contrôles qui remplacent et augmentent les contrôles IHM existants, en n’offrant aucune limitation de personnalisation. C’est tout l’objet du Krypton Toolkit que nous vous présentons aujourd’hui, une palette de contrôles simples mais aux possibilités étendues en matière de « look and feel ». Le Krypton Toolkit est téléchargeable gratuitement à l’adresse www.componentfactory.com. Il s’agit d’un réel freeware : vous pouvez utiliser les contrôles dans vos applications commerciales sans rien devoir à l’éditeur – même si un geste spontané est un encouragement mérité ! Vous pouvez également acheter l’intégralité des codes sources pour 99 dollars, ce qui n’est pas chère payée la pérennité de vos IHM. Notez que Component Factory propose également un composant – payant – baptisé « Navigator », qui sert à organiser intelligemment des groupes d’onglets.  

Qu’y a-t-il dans le Toolkit ? Rien que des contrôles de présentation : boutons, conteneurs, panneaux, splitters, headers et palettes de couleurs. Le site présente plusieurs possibilités intéressantes offertes par ces contrôles, ainsi qu’un éventail d’interfaces réalisées avec eux. Mais l’archive de téléchargement du Toolkit inclut également une remarquable application exécutable – « Krypton Explorer » – qui vous montre de façon interactive ce que ces contrôles peuvent faire pour vous. À gauche, les contrôles disponibles ; à droite, la palette des propriétés ; et dans une seconde fenêtre, les contrôles en action, dont vous pouvez modifier les propriétés en temps réel. C’est parfait pour une évaluation réelle.


Un contrôle en détail, le KryptonButton

Mais commençons par passer en revue les contrôles les plus intéressants, à commencer par les boutons. L’expérience montre que pour uniformiser une interface applicative, rien ne remplace les boutons de type « owner-draw », c'est-à-dire ceux qui affichent une image et/ou une étiquette de texte correspondante. Or, prenez Visual Studio – même l’édition la plus onéreuse. Vous n’y trouverez aucun bouton de ce type. Il faut les dériver manuellement, ou réutiliser une des nombreuses classes disponibles sur le Web. Ou utiliser un contrôle tout fait, prêt à être paramétré pour votre application, comme le KryptonButton.

Figure-1.jpgFigure 1


Par rapport au Button normal, le KryptonButton offre de nombreuses possibilités d’adaptation. Sa structure de propriétés se décompose en quatre sous-groupes correspondant chacun à un état : Disabled, Normal, Pressed et Tracking, auxquels s’ajoute un cinquième groupe baptisé Common, qui contient comme de juste les propriétés communes à chaque état.
Un état expose à son tour trois ensembles de propriétés : bordure, arrière-plan et contenu. C’est dans ces ensembles que sont assignées les valeurs qui vont nous permettre de concevoir des boutons qui feront, exactement, ce que l’application requiert (fig. 1).

Prenons un exemple concret. Imaginons un contrôle de type liste combo (liste déroulante avec zone de saisie). Les combos offrent un bouton de type flèche basse pour dérouler la liste. Si nous voulons lui ajouter deux boutons flèche gauche et flèche droite pour sélectionner les éléments de la liste de façon cyclique sans dérouler celle-ci, il nous faut créer des boutons dont le comportement soit exactement le même que celui du bouton système de flèche basse.
Pour cela, nous devons gérer quatre états : normal, désactivé (la liste est vide), pressé et focalisé (c’est-à-dire avec le curseur de la souris au-dessus du bouton, auquel cas, sous Windows XP, le look du bouton doit changer). Pour chacun de ces états, nous devons avoir des images différentes qui s’affichent, toutes basées sur un équivalent de la flèche basse dessinée par le système.

Ensuite, nous devons gérer le rendu de l’implantation du bouton dans le contrôle. Le mieux, c’est encore de n’avoir qu’une bordure générale autour du contrôle. Pour cela, le plus simple est de placer l’ensemble des éléments dans un contenant commun, de préférence un Panel, doté de sa propre bordure. Mais alors, il faut pouvoir désactiver le dessin des bordures de nos boutons. Sauf que dans le cas de boutons imitation système, l’effet de relief dépend aussi de la bordure. Et si les boutons n’avaient pas été des imitations système, leur effet 3D aurait pu dépendre du degré d’arrondi et de l’épaisseur de cette même bordure.


Des comportements intelligents en toutes circonstances

Prenons maintenant un autre exemple, celui d’une application Web devant gérer différents types de terminaux, notamment une flotte de Tablet PC à écrans tactiles, dont le durcissement implique une dalle de petites dimensions (typiquement 8,4 pouces) et donc de faibles résolutions (800 x 600 par exemple). Ce sont typiquement ces contraintes que le développeur doit gérer dans le monde réel, et face auxquelles on mesure la qualité de conception d’un contrôle. Idéalement, le bouton doit pouvoir adapter son contenu intelligemment en fonction de sa taille. C’est ce que proposent les KryptonButtons, avec notamment 16 propriétés relatives aux textes courts et autant aux textes longs, le passage de l’un à l’autre étant lui aussi programmable : césures, masquages, ellipses – c’est-à-dire le remplacement du texte par « (...) » –,  et cela au niveau des mots ou des caractères.

Tous ces attributs sont paramétrables directement, soit à la conception dans la grille de propriétés du contrôle, soit au codage en affectation directe. L’approche choisie est celle de l’héritage, c’est-à-dire de propriétés en cascade dont la complexité et la finesse vont croissant. Il suffit donc de ne paramétrer que les grandes valeurs, et de ne toucher ensuite que celles qui, dans un état précis du bouton et en fonction de conditions spécifiques de l’environnement, doivent s’adapter aux contraintes de l’application. À l’exécution, pour plus d’efficacité, le contrôle va aussi déterminer si ses comportements définis par défaut dans la section de propriétés « Values » doivent être modifiés. Deux sections – OverrideDefault et OverrideFocus – servent à cela. Par exemple, pour éviter que le système n’applique au bouton sa décoloration et son entourage de points lorsque celui-ci a le focus, on assigne la valeur False à OverrideFocus > DrawFocus. C’est aussi simple que cela.

Enfin, pour uniformiser les codes couleur de l’application, les KryptonButton peuvent dériver leur coloration d’une Krypton-Palette qui définit tous les attributs de couleur de tous les éléments composant un contrôle : bordure, fond par défaut, arrière-plan inactif, arrière-plan actif, couleur du texte, etc. Cette palette est réellement exhaustive car elle comporte autant de propriétés qu’il y a de possibilités dans l’ensemble des composants Krypton. Mais chaque groupe de propriétés finales peut implémenter ses propres colorations pour certains besoins, si bien qu’on ne relève aucune aporie (fig. 2).

Figure-2.jpgFigure 2


Nous n’avons évoqué ici qu’un petit sous-ensemble des propriétés offertes par les KryptonButton, sachant qu’il en existe globalement une bonne centaine. Mais nous voulions rentrer dans les détails pour montrer combien les composants Krypton, bien que 100 % gratuits, étaient bien conçus. Si la démonstration est faite, il est temps de passer maintenant en revue les autres contrôles du Toolkit, en nous concentrant sur leur valeur ajoutée applicative.


Les autres boutons

Comme si les Krypton-Buttons ne suffisaient pas, le Tookit propose deux autres types de boutons. Le premier – KryptonCheckButton – est un inverseur capable de prendre deux valeurs (0/1, oui/non, On/Off...). Tout est prévu pour que son aspect reflète l’état en cours, qui peut être déterminé par la propriété « Checked », mais l’éventail des possibilités graphiques est volontairement restreint par rapport au KryptonButton, pour plus de simplicité. Enfin, l’ensemble KryptonCheckSet sert à concevoir simplement des groupes de boutons, dont un seul peut être enfoncé à la fois. Exemple type : le clavier de magnétoscope (fig. 3).

Figure-3.jpgFigure 3


Les headers

Un header est une zone déroulante qui laisse apparaître des contrôles lorsque l’interaction avec ceux-ci est nécessaire, et qui les masque lorsqu’il convient de récupérer le précieux espace écran qu’ils occupent. On les rencontre à plusieurs endroits dans Windows XP, avec des utilités et des présentations différentes. Par exemple, dans la barre des tâches courantes des fenêtres de l’Explorateur ou dans l’applet « Rechercher » où les paramètres de dernière recherche, de taille et les options avancées sont accessibles via des headers. Lorsqu’une zone peut être rétrécie via une double flèche orientée vers le haut ou le bas, c’est un header.

Ceux offerts par le Toolkit font ce que font les headers système, mais peuvent en plus être habillés d’images, être désactivés, être positionnés horizontalement ou verticalement, et adoptent comme de bien entendu les comportements par défaut définis dans une ou plusieurs KryptonPalettes incluses dans le programme (fig. 4). Point très intéressant, les KryptonHeaders peuvent également contenir des collections de boutons, ce qui les rend aussi pratiques mais beaucoup moins contraignants que les toolstrips. Ces boutons bénéficient par ailleurs de possibilités graphiques étendues, dont les propriétés peuvent être définies à la conception dans une sous-palette du header. On peut donc concevoir des interfaces ultra-riches mais dont l’occupation d’espace peut être réellement optimisée.

Figure-4.jpg
 

Les headergroups

Les headergroups sont des sortes de fenêtres non mobiles dont l’usage est assez intéressant. Comme avec un header classique, cliquer sur la double flèche basse ouvre une zone qui contient son propre contenant de contrôles et sa propre barre d’état. On peut ainsi, par exemple, afficher des données via une zone de texte multiligne et offrir des outils pour modifier ces données sous certaines conditions seulement. L’apparition des outils redistribue l’espace dans la fenêtre fixe de façon intelligente, et il est même possible de définir des bandeaux latéraux qui se seront affichés que lorsque l’utilisateur le souhaitera.

Figure-5.jpgFigure 5


La double flèche est alors orientée vers la droite ou la gauche, et l’on obtient au final un résultat similaire à la palette des composants de Visual Studio (fig. 5) ou au volet de lecture des e-mails du prochain Outlook 2007 qui se positionne à droite ou en-dessous de la liste des messages reçus (fig. 6). La double flèche joue donc le rôle de l’épingle enfoncée qui symbolise – mal à nos yeux – l’état « déployé » d’un header ou d’un onglet. Un point à noter pour finir. Bien qu’ils soient usuellement utilisés de façon fixe, les headergroups peuvent aussi constituer des fenêtres mobiles sans bordure de redimensionnement, comme les palettes d’outils de Photoshop par exemple. Dans cet usage, ils offrent des fonctions de positionnement automatique sur l’écran (centré, coin supérieur gauche, inférieur droit…) et peuvent être promenés à l’écran via la souris (fig. 7).

Figure-6.jpg
Figure 6


Les étiquettes et les liens

Ce que l’on appelle « label » dans le jargon existe en deux types dans le Krypton Toolkit. La différence entre les KryptonLabels et les KryptonLinkLabels, c’est que les seconds sont actifs, comme des liens hypertextes. Il suffit de les cliquer pour déclencher un événement, et nous pensons que le temps n’est pas loin où les boutons des applications locales seront remplacés par des liens, comme sur les pages Web, pour d’évidentes raisons d’optimisation de l’espace et d’uniformisation des interfaces.

Figure-7.jpgFigure 7
Mais là n’est pas le débat d’aujourd’hui, et observons d’emblée que les labels Krypton offrent eux aussi les mêmes possibilités graphiques que les autres contrôles. Vous pouvez les placer dans toutes les positions, leur ajouter des images, les définir comme des étiquettes multilignes… Vous pouvez leur appliquer des traitements différenciés selon que le curseur les survole ou non, et y faire figurer de l’« extra-text » qui lui ne variera pas d’apparence lors du clic. Bien entendu, vous bénéficiez des mêmes opportunités d’héritage et de dérivation que pour les contrôles vus plus haut, à partir d’un groupe de propriétés « StateCommon » pouvant varier selon le « StateNormal » et le « StateDisabled ».

En fait, il ne manque aux KryptonLinkLabels pour être parfaits que des états « StatePressed » (lien cliqué) et « StateTracking » (lien survolé) pleinement définis. Oui, sauf que, en y réfléchissant un peu, on se rend compte que si on a besoin de tels états, autant recourir aux KryptonButtons qui eux les exposent, et sont suffisamment adaptables graphiquement pour offrir exactement les mêmes possibilités et la même simplicité d’apparence que des liens hypertextes…

Figure-8.jpg
Figure 8

Développement
Réduire
LA MISE À JOUR D’UN ERP
15 ans d’expérience, deux ans de réécriture
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Depuis quelques années, les principaux éditeurs d’ERP réécrivent leurs logiciels pour les adapter au goût du jour. La plupart du temps, nous n’avons des échos que des investissements consentis, mais rarement de détails sur la réalisation. Exceptionnellement, un éditeur du marché de ce type de produits a accepté de nous faire partager son expérience. Description et analyse du projet de Lefebvre Software, avec son directeur de la recherche et du développement, Hervé Rozier.


H-ROZIER-600x800.jpgFiliale du Groupe Éditions Lefebvre Sarrut, Lefebvre Software conçoit et édite des logiciels spécialisés dans le secteur de la finance et des ressources humaines. Jusqu’à présent ses produits étaient particulièrement optimisés pour fonctionner sur le système I d’IBM (ex-AS/400 ou Iseries). « Cet environnement n’est plus en progression », explique Hervé Rozier. Il ajoute : « En revanche, nous voulions conserver notre positionnement de spécialiste sur les deux sujets pour lesquels nous sommes spécialisés. De ce fait, nos logiciels ne fonctionnent pas tout seuls dans le système d’information des entreprises. Ce point avait donc un impact fort sur les choix technologiques de ce projet de réécriture. Il nous fallait conserver ce positionnement de référence tout en apportant une très large ouverture. À l’époque, début 2004, nous avons donc regardé les architectures qui nous permettaient de le réaliser. »


LE CHOIX DE LA PLATE-FORME TECHNIQUE

« Le choix n’était pas très large entre J2EE et .Net ». C’est finalement Java qui a été choisi. « À l’époque, Java était le choix de l’ouverture. Par ailleurs, nous manquions de recul sur des projets d’une telle ampleur dans les environnements .Net », précise Hervé Rozier.
Avant de se lancer dans le projet, il a fallu concevoir la plate-forme sur laquelle il allait se réaliser. Hervé Rozier se souvient : « C’était loin d’être évident. Sur l’environnement d’IBM, nous avions un grand confort de développement. L’infrastructure des outils était amenée par IBM. Nous n’avions qu’à coder des fonctions métier. Là, ce n’était plus le cas. Nous avons dû coder des outils techniques qui n’existaient pas de façon native. Ainsi, avons-nous dû développer la gestion des batchs et une gestion end-user des publications. »

En dehors de ce souci toujours présent, l’intégration des différents outils s’est trouvée simplifiée par l’adoption d’un outil spécifique. « Une entreprise de Sophia-Antipolis avait été primée pour un framework. Nous l’avons racheté pour l’utiliser. Celui-ci s’appuie sur Eclipse. Nous avons complété l’environnement de production avec différents outils satellites. Subversion sur le versionning, JIRA pour le Bugtracking, le concurrent de BugZilla. » D’autres outils ont complété cette architecture de base pour écrire des fonctions qui n’étaient pas natives comme la gestion de la publication pour le client. Un utilitaire de rédaction, XXE de XMLMind, qui permet de rédiger les documents à partir de référentiels de données et de services métier.


Une organisation classique mais internationale
Tous ces développements ont suivi la méthode de modélisation conceptuelle de données (MCD) de la classique méthode MERISE. Hervé Rozier indique : « Nous n’avons utilisé UML que lorsque c’était nécessaire, mais cela n’a pas été systématique. » Pour l’organisation, « elle était assez légère pour encadrer les équipes sur trois sites différents avec au total 50 personnes qui se composait de personnes chez nous et en régie sur certains sites ». Les trois sites étaient Marseille (analyses, architecture, test et développements technologiques), Lyon (infrastructure) et Bucarest (développement fonctionnel). Les différentes équipes utilisaient des outils de communication collaborative comme Pandion IM, un outil de messagerie instantanée « pour les communications de tous les jours et les petits chats ». Hervé Rozier ajoute : « une partie de l’architecture avant développement a été aussi réalisée à Marseille ». Pour éviter les conflits de postage évoqués ci-avant, les développements étaient centralisés sur un serveur unique à Marseille. La liaison réseau avec Bucarest était en 512 K full duplex. Pour l’encadrement, un patron était en place à Bucarest, un chef de projet et un homologue pour les outils périphériques à Marseille. Hervé Rozier ajoute : « La partie infrastructure dépendait directement de moi ».




LA DÉFINITION DE L’ARCHITECTURE FONCTIONNELLE

Dans le cahier des charges, il fallait à la fois, comme nous l’avons évoqué, permettre une large ouverture, conserver un niveau fonctionnel élevé, mais aussi corriger les inconvénients de l’architecture précédente en intégrant l’expérience sur les déploiements depuis 15 ans !

Simple, sur le papier ! Moins clair dans la réalisation. « Il nous fallait lever ces hypothèques sur les fondamentaux d’un produit vieux de 17 ans. Nous avions dans l’esprit de réécrire afin d’améliorer. Pour l’ouverture, nous voulions pouvoir répondre à 98 % du marché par une intégrabilité poussée, sans avoir à maintenir de multiples versions. Nous avons donc choisi de créer des entités au niveau supérieur et d’embarquer dans les composants les différents procédés de génération vers les différents systèmes (déploiements). C’est la principale originalité de ce projet. Ainsi, nous pouvons déployer en automatique à partir d’un serveur JBoss. Il ne reste que l’adaptation de la couche de sécurité spécifique à chaque serveur J2EE comme avec la console Oracle. À ce moment-là, cela reste du niveau de la spécification du client. Contrairement à ce que l’on croit, tout n’est pas totalement normé. »
Le framework permet ainsi de modéliser les données pour 5 bases de données : PostGres, MySql, DB2 UDB, Oracle et SQL Server. Il génère aussi les fichiers de déploiements pour les serveurs d’applications (JBoss, Weblogic, Websphere et Oracle AS). Les principaux écueils rencontrés l’étaient du fait de l’organisation et de la structure des données du produit précédent. Certaines tâches fonctionnelles étaient fastidieuses car difficilement automatisables.
Les possibilités et l’originalité de l’architecture technique globale se retrouve dans l’ensemble des nouveaux développements fonctionnels.


LA RÉECRITURE PROPREMENT DITE

« Sur le plan technique, tout a été réécrit. Là encore, les questions d’architecture technique ont dominé du fait que nous avions assez peu de problèmes sur les points fonctionnels. Si nous n’avons pas repris de code existant, c’est que l’ancien logiciel était déjà assez modulaire. Nous n’avons pas eu à changer la granularité des composants métier. Ce n’est pas la conception qui nous a posé de véritable problèmes. »
L’architecture technique est bâtie autour d’un modèle MVC. Pour la couche Modèle, l’architecture choisie se compose d’un panachage d’EJB et de liens directs. « Pour les EJB, se sont plutôt des EJB sessions et non entités qui peuvent poser parfois des problèmes de performances, particulièrement dans les circonstances d’enregistrement de nombreuses données en EJB. » Les liens directs par JDBC (Java Data Base Connector) ne sont pas présents dans les couches hautes des composants, mais embarqués dans les couches basses. Le directeur de la R & D de Lefebvre Software ajoute : « Les possibilités de requêtes des EJB n’étaient pas assez fines. Enfin, on s’en est sorti avec une panoplie de composants métier de requêtages en JDBC. »

Cette configuration a été essayée sur un projet de gestion des immobilisations avant le lancement du grand projet de la refonte du principal module comptable. Lors de ce pilote, des outils Open Source comme PostGres et JBoss « ont permis de ne pas partir d’une feuille blanche , précise Hervé Rozier.


Un projet à mi-chemin
« Pour le moment, nous n’avons réalisé que la première phase de notre projet, mais il est déjà conséquent. En deux ans, nous avons réintégré quinze années d’expérience sur le logiciel précédent dans ce nouveau produit. Avec le test, le projet, à ce jour, représente 8 000 jours/hommes. Au global, avec la deuxième partie de notre projet, le bilan sera de 12 000 jours/hommes. Le budget global a été de 6 millions d’euros. De tels chiffres montrent l’ampleur du projet pour notre entreprise », résume Hervé Rozier. À première vue, le plus gros du travail semble avoir été réalisé. Hervé Rozier souligne le plus important : « Tout n’a pas été simple tous les jours. Les équipes se sont bien entendues, même si ce n’était pas l’euphorie totale. Mais sur la durée, l’organisation a tenu la route et, surtout, le logiciel fonctionne ! »




LA PHASE DE TESTS

Tous les développements ont fait l’objet de tests unitaires sur les composants, les fonctions et les scripts de tests. Ces derniers ont été définis au moment de l’analyse. Un dossier de jeu de test manuel était effectué avant de passer par la grande moulinette des scripts de tests automatiques. L’analyse était effectuée par les mêmes personnes qui avaient développé le produit précédent. Elles connaissaient donc parfaitement ce qu’il fallait attendre du produit.

Hervé Rozier précise tout de même :
« Les questions de refactoring n’étaient pas toujours simples, principalement quand elles touchaient des composants ou des objets communs. Il a fallu être très rigoureux dans la gestion des branches pour éviter des conflits dans les postages. Même avec un outil comme Subversion, il faut continuer à être très soigneux. Cette gestion des conflits est très souvent délicate. Les bêtises sont rares mais elles arrivent. »
Sur les ajouts fonctionnels, le patron de la recherche de Lefebvre Software constate : « Les ajouts sont des points de détails sur la gestion des stocks, des frais généraux. D’ores et déjà, les versions sont localisées car dans nos développements, les spécificités comptables et les langues sont décorrélées. On peut ainsi avoir une comptabilité espagnole en français ou une comptabilité française en espagnol. »

Autre point sensible, les abaques de développement n’étaient plus tout aussi adaptées qu’avec les anciens outils. Ce point a été surtout critique lors du phasage et de la planification du projet. Hervé Rozier poursuit : « Ils étaient performants sur les anciens outils, nous n’avons pas vu de véritable gains de temps sur les nouvelles technologies. Nous n’avons pas fait mieux qu’avant car le gain en ligne est perdu sur le codage d’outils satellites. » De la même manière, le directeur de la R & D de Lefebvre Software n’a pas vu de réels avantages à l’utilisation de design patterns dans les développements : « Ils peuvent être utiles pour certaines fonctions mais là nous partions de rien. »


LA REFONTE DE L’ERGONOMIE

La nouvelle version de l’ERP de Lefebvre Software a aussi impliqué de nombreux efforts sur l’interface client. Elle adopte les avantages procurés par les nouvelles technologies Web et se classe dans la famille des « clients riches ». Elle utilise principalement les possibilités offertes par Ajax. Hervé Rozier ajoute : « Dans l’écriture de cette couche utilisateur, nous avons été assez loin pour permettre à l’ERP de travailler sur plusieurs types de clients simultanément. La technologie Ajax nous permet d’être multi-formulaire avec un système multi-onglet et des saisies portées sur le serveur sans avoir à réafficher toute la page. »

Ces possibilités ne sont pas complètement issues des demandes clients de Lefebvre Software. « Nous n’avons pas directement demandé au client ce qu’il souhaitait, mais nous avons quand même pris la température auprès de certains pour l’ergonomie et pour diverses améliorations issues de travaux avec des clients. »

Le produit ne supporte pas qu’une interface Web : « Au niveau des JSP (Java Server Pages), des tags détectent le client au bout du navigateur s’il est Web. Un multiflux est généré en XML pour le client riche, générant aussi le WML selon la cible. » Il est à noter qu’il n’y a pas de JavaScript dans les JSP. Le client riche se résume à un client Java délivré par URL et maintenu par Java WebStart.
Linux
Réduire
Utilisez au mieux votre bureau SuSE 10.1
par Jason Perlow. Traduction : Noé Barat

Comment tirer le meilleur parti de Smart – disponible sous n’importe quelle distribution –, et de XGL sous Gnome, par ailleurs utilisable sous Gentoo ou Ubuntu, par exemple.

Au mois de mai, la dernière version libre/communautaire Linux issue de Novell est sortie dans les bacs (note du traducteur : Open SuSE 10.1 est sortie le 11 mai 2006, et nous en sommes, à la fin août, à la version 10.2 alpha 3). Comme c’était le cas de son prédécesseur, SuSE Linux 10.0, ou avec les plus récentes moutures d’OpenSuSE, mais aussi déjà avec les versions serveur 10 SuSE Linux entreprise et Desktop 10, cette version revendique des améliorations notables dans le cadre d’une utilisation bureautique, que se soit sous KDE ou Gnome, en incluant des composants multimédias à la pointe, tels qu’un lecteur iTunes (Amarok), et un lecteur audio compatible iPod (Banshee). SuSE Linux 10.1 a en fait sous le capot plus de logiciels bureautiques que rêverait d’avoir n’importe quel utilisateur lambda.
 Comme toute nouvelle édition OpenSuSE qui se respecte, SuSE 10.1 possède un certain nombre de composants qui ressortent du lot. Nous pensons à deux paquets notables : la nouvelle intégration du manager de paquet libzypp, qui représente un changement important par rapport aux versions précédentes de SuSE, et la mise à disposition de XGL 3D pour le bureau.


Pouvez-vous croire…

Pouvez-vous croire que libzypp est si innovant qu’il ne conviendra pas à la plupart des utilisateurs ? J’admets que je suis un grand fan de SuSE, il s’agit de la distribution de base que j’utilise le plus pour mes serveurs à la maison et aussi pour mon ordinateur de bureau personnel. C’est une distribution très stable qui travaille extrêmement bien sur un certain nombre d’architectures importantes, et je m’appuie dessus comme plate-forme VMware.
SuSE, d’après mon expérience professionnelle, est un système stable et robuste, et j’ai été extrêmement étonné lorsque j’ai découvert que les développeurs avaient décidé de remplacer l’infrastructure éprouvée de mise à jour en ligne YOU (Yast Online Update) avec quelque chose de complètement nouveau et différent – une synthèse de RedCarpet et de YOU – baptisé libzypp (http://en.opensuse.org/Libzypp), qui s’accompagne d’un frontend graphique complètement nouveau, le Zen Updater.
Cependant je peux comprendre les raisons qui ont motivé ces changements de la part de SuSE. En effet, après l’acquisition de Ximian en 2003, Novell était évidemment impatient d’intégrer la technologie RedCarpet de mise à jour de Ximian avec leur produit ZenWorks, et ainsi de consolider leur expertise en matière de technologies de mise à jour d’ordinateur de bureau, de sorte que chaque produit de la compagnie forme un tout cohérent. C’est bien pensé, mais sans trop vouloir m’apitoyer là-dessus, ils auraient dû maintenir le statu quo dans SuSE jusqu’à ce que ce fichu logiciel fonctionne correctement. Novell aurait pu continuer à livrer YOU, offrant aux utilisateurs la possibilité de tester ce nouveau soft séparément, ou bien à le livrer plus tard sous forme de mise à jour, ou ne l’intégrer que dans la version suivante. Développeurs Novell, si vous me lisez (et je sais que vous le faites), considérez, s’il vous plaît, ma recommandation.
De toute façon, si vous utilisez SuSE sur votre ordinateur de bureau, vous devriez vouloir installer des logiciels directement à partir des dépôts situés sur Internet. Ainsi, il est chanceux que Pascal Bleser ait conçu sous licence Open Source une version de son manager de paquets (baptisé Smart) qui soit compatible avec les mises à jour de SuSE et les dépôts de SuSE.


À propos de Zen-Updater
Zen-Updater, le gestionnaire des mises à jour par défaut, affichera une icône d’avertissement sur votre tableau de bord (le point d’affirmation) en cas de mise à jour de paquets. Si vous cliquez sur ce point d’affirmation, Zen-Updater listera les paquetages impliqués dans cette mise à jour. Pour désactiver Zen-Updater, ouvrez-le et dirigez-vous sur configurer / préférences, puis décochez simplement la case. Notez que Zen-Updater est basé sur le service appelé ZMD.




Obtenir Smart

Le projet Smart, lequel est un gestionnaire de paquets (http://www.labix.org/smart), résulte d’une initiative relativement nouvelle visant à créer un algorithme intelligent de distribution et d’installation de logiciels qui soit indépendant du système d’exploitation Linux et Unix (et même de MAC !). Il fonctionne sur toutes distributions et il est compatible avec un certain nombre de formats de dépôts, y compris YUM, APT, APT-RPM, et URPMI. Il inclut un mode ligne de commande et dispose d’une interface GUI facile à utiliser, aussi bien qu’un applet d’avis de mise à jour.
Le démon Smart peut s’approvisionner à des sources de miroirs multiples, et il est capable de rapatrier les mises à jour en parallèles (mode multithread) de sorte que vous puissiez obtenir plusieurs mises à jour immédiatement. Bien que le logiciel ne soit pas encore en version stable 1.0, il est tout à fait opérationnel et fonctionne très bien. La version de SuSE de Smart peut être trouvée à l’adresse http://linux01.gwdg.de/~pbleser/rpm-navigation.php?cat=System/smart/.

À l’heure où nous rédigeons ces lignes, la dernière version de Smart était la version 0.41 release 28 (ndt : nous en sommes maintenant à la version 0,42 release 9). Téléchargez les paquets suivants (ou plus récents) dans votre répertoire local :
 
• smart-0.41-28.guru.suse101.xxxx.rpm,
• smart-addons-0.41-28.guru.suse101.xxxx.rpm,
• smart-debuginfo-0.41-28.guru.suse101.xxxx.rpm,
• smart-gui-0.41-28.guru.suse101.xxxx.rpm, et
• smart-ksmarttray-0.41-28.guru.suse101.xxxx.rpm, où xxxx représente votre architecture de système, telle qu’i586, x86_64, ou powerpc.

De plus, vous devrez vérifier que vous avez bien toutes les dépendances installées sur votre système, telles que bzip2, rpmlib, libpthread, zlib, rpm-python, popt, et python. Si vous avez effectué une installation standard de SuSE 10.1 (avec KDE ou Gnome), vous devriez déjà avoir toutes ces dépendances sur votre système, ainsi tout devrait fonctionner sans problème. À chaque fois que j’installe SuSE, j’effectue une installation complète de KDE et de Gnome, et ce, y compris les outils de développements de KDE et de Gnome, et la suite de développement du kernel et de Java. Cette manière de pratiquer permet d’éviter la plupart des erreurs de dépendances. À l’aide de la ligne de commande vous devrez ensuite installer dans l’ordre :

# su root                            
# rpm –Uvh smart-0.41-28.guru.suse101.xxxx.rpm
# rpm –Uvh smart-addons-0.41-28.guru.suse101.xxxx.rpm
# rpm –Uvh smart-debuginfo-0.41-28.guru.suse101.xxxx.rpm
# rpm –Uvh smart-gui-0.41-28.guru.suse101.xxxx.rpm
# rpm –Uvh smart-ksmarttray-0.41-28.guru.suse101.xxxx.rpm


La dernière commande est seulement nécessaire si vous voulez installer le notificateur de mise à jour dans votre barre de tâches. SuSE 10.1 possède déjà son propre logiciel de notification de mise à jour comme vous le savez déjà, le Zen-Updater, et vous voudrez sans doute ne plus l’utiliser si vous employez ksmarttray.
Une fois que ces paquets ont été installés, reste à mettre à jour votre système :

# sudo smart update
# sudo smart upgrade


La première commande met à jour les informations locales des paquets par rapport aux dépôts Internet, et la seconde exécute le téléchargement et les mises à jour proprement dites.
Cette commande…

#sudo smart install nom_du_package


… installe un logiciel spécifique dont vous connaissez le nom. Par exemple, un sudo smart python installera l’interpréteur python. Réciproquement…

#sudo smart remove nom_du_package


… enlèvera ce paquet de votre système. Pour employer l’interface graphique vous pouvez exécuter…

#sudo smart -GUI  


… ou choisir « le gestionnaire de paquets Smart » dans un des menus de KDE ou de Gnome sous l’intitulé « système et configuration ». L’interface graphique permettra de rechercher des noms de logiciels ou des catégories de logiciels selon son type, et de marquer rapidement des paquets multiples pour une installation immédiate.
Pour plus d’informations sur Smart, telle que la manière d’ajouter de nouvelles sources de dépôts, visitez l’URL http://susewiki.org/index.php?title=smart.


Graphismes 3D avec Xgl

Tout comme l’ajout du logiciel libzypp, l’ajout du système XGL dans SuSE 10.1 est un événement. Cependant, puisque XGL ne fonctionne pas encore de manière stable avec toutes les configurations graphiques, Novell a eu réellement le bon sens de ne pas l’activer par défaut. Je dois les féliciter pour cette conduite qui marque la différence par rapport à d’autres grandes compagnies de logiciels qui incluent à leurs systèmes d’exploitation des logiciels encore en cours de développement. L’utilisateur devrait toujours avoir la possibilité de choisir s’il désire ou non de travailler sur un bureau en 3D.
Si vous voulez vous plongez la tête la première dans Xgl, vous aurez d’abord besoin d’une carte graphique qui soutient l’accélération graphique 3D (*). Actuellement, seules les cartes d’ATI, de nVidia et d’Intel sont connues pour fonctionner convenablement dans ce mode, et à la date de cette publication, seul un sous-ensemble de celles-ci est réellement exploitable avec Xgl. Si vous possédez une carte assez récente, il y a de très forte chance pour qu’elle fonctionne ; mais si elle ne fonctionne pas du tout avec Xgl, ce n’est pas dramatique non plus. En effet, cela n’affectera pas votre système et vous pourrez revenir à la situation initiale sans aucun problème.
D’abord, employez Smart pour installer les dépendances nécessaires :

# sudo smart install compiz
# sudo smart install xgl
# sudo smart install libwnck


La prochaine étape est de sauvegarder votre configuration système de X :

# cp /etc/X11/xorg.conf /root/xorg.backup


Vous devrez également vous assurer que vous avez bien les sources de kernel installées, juste au cas où il vous faudrait recompiler un module pour votre carte 3D. Vous installerez ces fameuses sources à l’aide de la commande suivante :

# sudo smart install kernel-dev


Après, il vous faudra télécharger le pilote propriétaire qui se rapporte à votre carte, tel que l’installateur automatique des pilotes ATI pour Linux, ou l’installateur équivalent de nVidia. Suivez ensuite simplement les instructions. ATI (http://www.ati.com) et nVidia (http://www.nvidia.com) ont dédié sur leur site respectif des sections spéciales pour le téléchargement des pilotes Linux avec une documentation complète sur la manière de les installer.
Après installation des pilotes d’ATI, vous devrez recourir à la commande…

#sudo aticonfig

… pour mettre en place le module kernel fglrx. Sur des systèmes nVidia, vous devrez éditer manuellement le dossier situé sous /etc/X11/xorg.conf avec votre éditeur de texte préféré (tel que kwrite ou gedit), et changer la référence dans la section « Driver » en modifiant le mot « nv » (le pilote intégré à X11) en « nvidia ».
Après, il vous suffira d’appuyer simultanément sur les touches Control-Alt-Backspace pour tuer et remettre en marche le serveur X11. À ce stade, si vous obtenez votre écran de connexion habituel et non des messages d’erreurs en mode terminal, c’est un signe que tout fonctionne convenablement. Sur quelques systèmes, vous pourriez réellement devoir exécuter un véritable arrêt et une relance complète du système afin que le système X11 soit à nouveau fonctionnel. Si X11 est cassé, vous devrez ouvrir une session en mode textuel (écran de terminal) et recopier votre ancienne configuration :

#cp /root/xorg.backup /etc/X11/xorg.conf


Vous n’êtes pas encore tiré d’affaires. Reconnectez-vous et lancez un terminal en demandant l’exécution suivante :

# sudo gnome-xgl-settings


Cet outil vous indiquera si votre carte est supportée, et vous permettra d’activer l’accélération 3D. Relancez X11 (Control-Alt-backspace), et vous devriez maintenant profiter d’un système X11 avec Xgl activé. Si vous constatez un mauvais fonctionnement, ou si pour une raison quelconque vous deviez désactiver XGL vous pouvez le faire en invoquant en ligne de commande gnome-xgl-switch ––disable-xgl. Pour de plus amples informations sur Xgl sous SuSE (par exemple pour se renseigner sur les logiciels qui accomplissent ces même tâches, mais sous KDE) rendez-vous à l’adresse http://en.opensuse.org/Using_Xgl_on_SuSE_Linux.


Jason Perlow vit dans le New Jersey. Vous pouvez le contacter à l’adresse jperlow@linux-mag.com.


Complément d’information à propos de l’utilisation de Smart sous SuSE (ndt)
Sous SuSE, la base de données des paquets installés est rpm-db. YaST et Smart sont tous deux capables de lire cette base de données sans interférer entre-eux. Ce qu’il est nécessaire de bien comprendre est le fait que, par défaut, SuSE fige ses paquets dans le temps pour une version donnée de la distribution (seuls les paquets visant les mises à jour – bugs, failles de sécurités – évolueront). Ce n’est pas le cas d’autres distributions, comme la gentoo (basée sources il est vrai). À côté des dépôts officiels figés, il existe des dépôts non officiels mis à jour par des aficionados qui suivent l’évolution des logiciels ; le dépôt non officiel le plus connu des utilisateurs de SuSE est packman. Ces sources de dépôts peuvent être ajoutés à YaST ou à Smart. L’utilisateur doit donc effectuer un choix entre stabilité du système (dépôts officiels certifiés Novell), ou paquets les plus récents possibles, mais qui s’accompagnera d’un risque plus élevé d’instabilité. Le fait d’utiliser Smart ou un autre gestionnaire de paquets n’influencera en rien la stabilité du système : tout dépend de ce que l’utilisateur décidera d’y installer.




Ndt : une excellente source d’informations à cet égard (en vue de connaître si oui ou non votre carte est compatible xgl) est la liste suivante http://gentoo-wiki.com/HARDWARE_Video_Card_Support_Under_XGL.
Windows
Réduire
Windows Vista
Une RC1 rassurante
Par Hugo Lunardelli - Copyright L'Informaticien, tous droits réservés

Dernière ligne droite pour Vista avant la mise en production et la disponibilité générale prévue – en principe – pour janvier 2007.

Le 1er septembre, Microsoft annonçait officiellement la finalisation de Windows Vista RC1, pour Release Candidate, ou version quasi finale. Faisant suite à plus de cinq ans de développement, de retards, d’abandons de certaines fonctionnalités (WinFS notamment) et succédant à une bêta 2 en deçà des attentes, l’arrivée rapide de cette RC1 représente une divine surprise.

Vista-RC1-Desktop.jpg


La performance enfin au rendez-vous

Alors que de nombreuses voix s’élevaient jusqu’ici pour réclamer une bêta 3, les évaluations de la RC1 postées par les experts de la planète Windows s’accordent pour estimer que cette nouvelle version de test concrétise une avancée considérable en termes de performances, de stabilité, de compatibilité matérielle et logicielle par rapport à la bêta 2. Vista RC1 est désormais – enfin – suffisamment abouti pour être utilisé comme plate-forme de production, sans pour autant que l’on puisse considérer cette version comme finale, de nombreux problèmes mineurs nécessitant encore d’être traités.

La première chose qui frappe à l’installation est la rapidité du processus. Une installation complète sur un portable Acer Centrino M740 doté de 1 Go de Ram a réclamé environ 30 minutes, beaucoup moins que les 45 à 50 minutes nécessaires sur la bêta 2. Non seulement le processus est plus rapide, mais la configuration matérielle cible a été correctement identifiée et les pilotes correspondants installés, à l’exception de la carte son qui a exigé quelques clics supplémentaires pour télécharger le pilote. Une fois installée, cette version se révèle agréable à utiliser, affichant un niveau de performance comparable à Windows XP, tout en tirant parti de la carte ATI Radeon X700 pour afficher une interface Aero très plaisante à l’œil. J’ai pu tester la stabilité de cette version en installant concurremment divers utilitaires (Adobe Reader 7.0, WinRAR) et applications (Office Pro 2003), tout en téléchargeant de gros fichiers et en utilisant le multi-onglet d’Internet Explorer 7 pour ouvrir une douzaine de sites simultanément. Une fois installé, Outlook 2003 (en attendant une nouvelle bêta d’Office 2007), j’ai téléchargé 1 Go d’e-mails à partir de mon serveur Exchange, tout en exécutant les tâches ci-dessus, sans rencontrer de problèmes, sans le moindre écran bleu ni crash d’applications et en conservant à tout moment la main sur le système : impressionnant !


La sécurité sans l’intrusion

Les précédentes versions de test avaient fait l’objet de nombreuses critiques portant sur le caractère intrusif de la sécurité sous Vista. Contrairement à Windows XP, Vista est beaucoup plus attentif aux altérations que peut subir le système et demandera fréquemment une validation avant d’autoriser la plupart des changements. Ce sous-système de sécurité, appelé UAC (User Access Control), a été repensé pour minimiser le nombre d’interactions ce qui permet de concilier sécurité et discrétion.
Enfin, un excellent point sur la compatibilité matérielle et logicielle. Le nombre et la qualité des drivers fournis avec Vista a nettement évolué pour permettre une installation quasiment sans défaut dans un grand nombre de cas de figure. En ce qui concerne la compatibilité logicielle, la plupart des programmes usuels sous Windows XP s’exécutent à l’exception de certains utilitaires système (back up, sécurité) qui outrepassent les privilèges normalement concédés par Vista. Un bon test de compatibilité concerne le support des jeux qui pour la plupart tournent aussi rapidement que sous XP (Half-Life 2, par exemple).

Bien que prometteuse, cette version de test comporte quelques problèmes ennuyeux, comme le parfois difficile retour d’hibernation ou l’autonomie insuffisante de la batterie, qui rendent délicat un pronostic définitif vis-à-vis de la date de sortie de Vista. Il n’en reste pas moins que cette version représente une avancée considérable et qu’on peut à nouveau se montrer optimiste quant aux retombées positives que Vista devrait entraîner dans nos vies d’internautes et d’utilisateurs de PC.
Nouveaux Métiers
Réduire
Responsable Informatique nomade
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés


Pour les TPE et les petites collectivités locales, disposer d’un véritable service informatique est souvent bien trop coûteux. La plupart du temps cela n’a pas vraiment de sens non plus. Une SSII de la région lyonnaise, Deuzzi, propose de fournir des Responsables Informatiques en temps partagé entre plusieurs entreprises avec des prestations à la journée. Portrait d’un de ses RI nomades.

Eric-Auvray.jpgÉric Auvray, malgré son emploi du temps, se veut disponible. « Dans notre métier, il faut l’être pour tout le monde ». Son métier ? Responsable Informatique à temps partagé. Après un BTS de Développeur informatique et des fonctions d’analystes de gestion, Éric Auvray a pris en main la responsabilité de la structure informatique d’une entreprise industrielle. « Je gérai 14 sites, de 10 à 200 personnes. À la fermeture de cette entreprise, j’ai recherché un travail dans l’informatique. Le poste de Deuzzi m’a séduit par sa versatilité. On touche à beaucoup de choses. »


Le contenu de la mission

Mais à quoi correspond véritablement ce nouveau métier ? « Les fondateurs de l’entreprise ont constaté que différentes structures n’avaient pas les moyens d’avoir des responsables informatiques à temps plein. Au début, ce sont plutôt des petites collectivités locales qui s’offraient les services de Deuzzi. Aujourd’hui, la moitié de notre clientèle est constituée d’entreprises privées. Le client moyen de la prestation est une entreprise de 25 postes. En temps partagé, je remplis les fonctions de responsable informatique. Nous réalisons un audit quasi complet (informatique, internet et télécommunications) et nous indiquons les axes d’améliorations possibles, les nouveaux projets à initier… »
Ainsi, Éric Auvray passe une journée dans telle entreprise, puis se rend le lendemain dans une petite mairie. La principale tâche qui lui est dévolue est de servir de relais avec les différents fournisseurs. « Nous proposons diverses prestations d’équipements et, pour les logiciels, nous avons des partenariats avec les fournisseurs. Je sers de tampon ou de relais sur les projets pour relancer les fournisseurs. On ne peut pas tout connaître. » Aujourd’hui, Deuzzi compte une dizaine de salariés. Certains sont plus spécialisés sur des environnements précis, comme l’AS/400 ou les environnements MAC. Tous connaissent les environnements Windows, les plus courants dans les entreprises clientes.


Les qualités essentielles

Souplesse et ouverture d’esprit sont des évidences pour le métier d’Éric Auvray. Autre qualité nécessaire, la capacité à s’intégrer vite dans des structures différentes. Éric Auvray insiste particulièrement sur la qualité d’écoute nécessaire : « Il faut être à l’écoute de tout le monde : du dirigeant de l’entreprise à l’utilisateur. Il faut comprendre les demandes et savoir si cela est souhaitable ou possible. Parfois on sert de courroie de transmission entre les utilisateurs et les dirigeants. Nous épaulons aussi parfois les informaticiens en interne. Surtout, nous initialisons et suivons les projets. Nous relançons donc les fournisseurs ou prestataires des projets. Ce point demande une autre qualité : toujours anticiper, être toujours d’un cran en avance. Souvent, le plus dur à gérer est ce qui ne dépend pas de vous sur les projets » ! Au bilan, il faut aussi une bonne dose d’enthousiasme et ne pas compter son temps.


Comment sont perçus les RSI à temps partagé ?

« La perception change au cours du temps. Évidemment, avec l’audit de départ, une certaine appréhension est présente ; on vient toujours là pour tout casser ou pour virer des postes… Quand ils ont compris notre démarche d’amélioration et que les utilisateurs voient que l’on ne touche pas à ce qui fonctionne bien, la perception change. On devient quasiment des collègues. Ils intègrent tout à fait notre côté “responsable”. »



Combien ça coûte… et combien ça rapporte ?

Si vous voulez faire fortune, choisissez une autre voie. La prestation d’un responsable junior est facturée 500 euros par jour, 600 pour un senior et culmine à 800 euros pour un DSI. Grosso modo, Éric Auvray gagne entre 2000 et 2 300 euros bruts par mois. Pas de quoi devenir le roi du pétrole. Il faut bien quand même un peu de la foi du charbonnier pour exercer ce métier. Mais le modèle devrait rapidement faire des émules. En tout cas, Deuzzi va déjà développer son offre dans d’autres départements de la région Rhône-Alpes.
Métiers
Réduire
Une charte Cigref / Syntec
Les bonnes pratiques en livrets
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés


Les deux institutions représentatives des directions informatiques des grandes entreprises et des acteurs de l’industrie informatique ont tenu, courant juillet, une réunion sur le bilan de leur action au cours de l’année écoulée et sur le lancement de programmes récents dans les règlements des litiges et le soutien aux PME du secteur.

Au cours de l’année passée, les deux organismes avaient annoncé la mise en œuvre de mémento sur les différents métiers informatiques concernant leurs adhérents. L’engagement a été tenu avec la mise à disposition sous forme papier ou par téléchargement de quatre documents formalisant les bonnes pratiques lors de projets d’infogérance et de Tierce Maintenance Applicative (TMA), de missions de conseils, de mise en œuvre d’un progiciel ou dans une mission d’ingénierie et d’intégration de systèmes.


Définir les responsabilités de chacun

À la première lecture, les mémentos reprennent pour beaucoup des évidences sur les projets. Encore faut-il rappeler qu’une majorité de projets n’aboutissent pas, faute de suivre ces recommandations simples. Ces livrets par métier ont pour but d’adapter et d’enrichir sur des points spécifiques les orientations de la charte signée entre les deux organismes en février 2003. Leur deuxième axe d’action consiste à décliner de manière opérationnelle ces bonnes pratiques et de rappeler à chacun ses rôles et responsabilités.

Chaque livret suit les quatre étapes importantes des projets dans chaque métier : l’avant-projet, la prise de décision, le déploiement et l’après-projet, ou son suivi.
À chaque étape sont synthétisés les points critiques et les réponses adaptées dans l’intérêt du client et du fournisseur, ainsi que les aspects contractuels qui en découlent. Comme l’a fait remarquer François Dufaux, ancien président du Syntec, « Ces documents et ces recommandations sont nécessaires mais pas forcément suffisants. » Ces mémentos sont donc des bases à adapter au besoin de chacun.


Limiter les recours contentieux

Lors de l’échec d’un projet, le ping-pong des responsabilités risque de devenir un jeu sans fin. De plus, les procédures juridiques coûtent cher et n’apportent que peu de résultats effectifs, car ils ne règlent pas le problème entre le fournisseur ou le prestataire et le client. Dans l’esprit de la charte signée en 2003, qui fixait les bonnes pratiques relationnelles entre fournisseurs et clients, les deux institutions ont décidé d’ériger la médiation et l’arbitrage comme mode de résolution des litiges pouvant survenir entre adhérents des deux organisations par le biais du CMAP (Centre de médiation et d’arbitrage de Paris).
Cette possibilité de règlements amiables plutôt que contentieux va aussi assainir un climat qui avait tendance à connaître une dérive judiciaire et contractuelle. Cette action débute et méritera d’être suivie dans le temps pour voir si elle est utilisée ou si les entreprises et leurs fournisseurs souhaitent encore avoir des garanties judiciaires lors des litiges.


Un programme pour les PME

La réunion a été aussi l’occasion de rappeler la portée et l’importance de l’opération dans le cadre du Pacte PME par le plan triennal « Croissance éditeurs ». Celui-ci s’appuie sur des partenariats publics et privés et des initiatives inscrites dans le temps afin de créer pour les PME de l’édition logicielle les conditions leur permettant de franchir avec succès les étapes de leur développement. Ce pacte vise à atteindre quatre buts : amélioration de l’accès aux marchés publics et privés, croissance et développement des ressources humaines, consolidation des structures financières et action en faveur de l’innovation en développant l’économie de la connaissance.
Chaque partie du programme recouvre des actions spécifiques avec un suivi des opérations lancées.
Concours
Réduire
IMAGINE CUP 2006
La France championne du monde de l’intelligence artificielle
Par Yann Serra - Copyright L'Informaticien, tous droits réservés


Tous les ans, Microsoft convie les étudiants les plus doués du monde à un championnat de l’imagination. Une manifestation de gagnants à gagnant : les participants sont grassement récompensés et l’organisateur donne une saveur d’innovation à son activité développement.


ImagineCup0116864_Copier5.gifDe gauche à droite, Manon Gaucher et Flavien Charlon (médaillés d’or de la catégorie Projet Hoshimi), Laure Portet et Régis Hanol (médaillés de bronze de la même catégorie).
Déjà présenté dans nos colonnes, l’événement annuel Imagine Cup est une compétition de 24 heures durant laquelle des équipes d’étudiants en informatique venues des quatre coins du monde affrontent leurs talents sur un thème donné – cette fois-ci, la santé. À la clé, les meilleurs sont récompensés par des espèces trébuchantes (jusqu’à 25 000 dollars) et par le soutien de l’organisateur – Microsoft – pour concrétiser un projet sur le marché professionnel. Selon Christine Kéchichian de Microsoft France, « s’ils manifestent des ambitions d’entrepreneurs, nous mettons les lauréats de l’Imagine Cup en relation avec des investisseurs ; nous leur prêtons nos locaux pour leurs rendez-vous et nous leur permettons d’utiliser notre infrastructure pour présenter leurs produits ». L’année dernière, une équipe grecque aurait ainsi levé 500 000 euros pour monter son entreprise. En retour, il va de soit que le bénéfice d’un pareil coup de pouce passe par l’utilisation des logiciels de Microsoft. Accessoirement, les mécènes ne manqueront pas de remarquer que Linux n’a pas le monopole du développement génial.



Epreuve IT : « l’administration dans des conditions plus que réelles »
Pour Daniel Boteanu, médaille de bronze dans la catégorie IT, l’épreuve en 24 heures mettait en scène des conditions extrêmes : « Les machines mises à notre disposition n’étaient pas puissantes, les logiciels en version bêta boguaient, l’accès à Internet était incroyablement lent. Nous devions monter un système capable d’offrir des services fonctionnels qui allaient jusqu’à la génération d’une base de données SQL consultable du Web. Pour nous juger, le jury a évalué vingt points. Mais les ennuis ont commencé dès le premier, lorsqu’il a fallu expédier un e-mail pour nous identifier alors que mon serveur d’e-mail Exchange ne fonctionnait pas ! J’ai dû hacker en Telnet le port 25 de la machine des juges pour envoyer mon e-mail à la main à partir de leur propre serveur. Et ça a continué ainsi jusqu’à la fin, avec une coupure de courant vers 3h00 du matin. Au final, c’est la modularité de mon architecture qui m’a permis de remporter un maximum de points. J’ai, dans la mesure du possible, tâché de n’activer qu’un seul service par serveur, ce qui fait que j’ai déployé dix-sept serveurs dont treize virtuels, le tout accessible de mon propre DNS. »




Un coup d’accélérateur pour la carrière des étudiants

Cela dit, avec des épreuves ayant trait à l’intelligence artificielle dans les jeux vidéos (Project Hoshimi), aux courts-métrages cinématographiques, à la mise en place d’une infrastructure réseau, au design d’interfaces graphiques ou encore à l’algorithmique pour venir à bout d’une série de casse-tête, il faut bien avouer que l’appui logistique de Microsoft ne concerne véritablement que les lauréats de la catégorie Software design. Julien Garino et ses trois collègues de l’université de Sophia Antipolis imaginaient ainsi l’Imagine Cup 2006 leur ouvrir les portes d’un partenariat avec EDF : « Notre projet Dribble consiste à optimiser la consommation d’énergie à domicile depuis un Media Center qui pilote des modules en réseau. » Hélas, le jury préfèrera des sondes portatives italiennes qui enregistrent automatiquement des données comportementales ou encore l’assistant de géo-localisation brésilien pour piétons non voyants qui reconnaît la voix de son porteur et lui indique par vibration les directions à prendre.

ImagineCup0316867_Copier6.gif

Du côté des autres épreuves, les candidats visaient plutôt la glorification de leur CV. Vincent Le Quéméner, de l’ISEN Toulon, n’a pas remporté de prix dans la catégorie Interface Design, mais sa sélection favorise déjà sa candidature auprès des services de recherche de la Défense nationale. Même quête du rebond pour Daniel Boteanu de l’INSA Lyon, qui décroche la médaille de bronze dans la catégorie IT : « Un atout supplémentaire pour être admis dans l’université canadienne où je compte faire mon doctorat. » Au vu de la longue liste des diplômes qu’il a déjà à son actif dans le domaine des réseaux, Daniel figurera à coup sûr bientôt parmi les vedettes de la sécurité informatique et, ce jour-là, Microsoft ne pourra que se féliciter de l’avoir sponsorisé.


Projet Hoshimi : « le grain de sable qui a tout chamboulé »
2h00 du matin. Il ne reste plus que huit heures aux participants de l’épreuve Hoshimi pour peaufiner l’algorithme d’intelligence artificielle qui concourra à leur place. Sur les six équipes en compétition, deux sont françaises. Flavien Charlon et Manon Gaucher ne savent pas encore qu’ils emporteront la médaille d’or : « Ça va mal. Il nous reste plus de la moitié du travail à faire. On en est à 7 500 lignes de code en C# et on base toute notre stratégie sur le placement de robots-murs éphémères qui pourraient ralentir l’adversaire. C’est un tout nouveau module qui a été présenté par le créateur d’Hoshimi sur son blog, il y a à peine une semaine. Heureusement qu’on avait pensé à le regarder avant de venir. » Régis Hanol et Laure Portet sont plus sûrs d’eux : « On participe à cette compétition depuis le début et l’on commence à bien maîtriser l’algorithme qui nous fait gagner. Il nous suffit juste de l’adapter aux nouveaux robots. » 17h00, le même jour. Les juges lancent les parties automatiques qui détermineront les finalistes. Premier round : avec ses 17 000 points, alors que tout le monde stagne entre 3 000 et 5 000, l’équipe de Régis et Laure part largement favorite. Deuxième round, le grain de sable. Régis avait oublié de prévoir une situation, ses robots se mettent à tourner en rond et ne marquent aucun point, c’est la disqualification pour la finale. Flavien et Manon, jusqu’ici seconds, s’emparent de la première place. Régis et Laure se contentent de la troisième.




Hoshimi, ou le marketing viral de Microsoft auprès des universités

La catégorie la plus enthousiasmante de cette compétition était sans nul doute celle intitulée « Project Hoshimi ». Inventée par un Français – Richard Clarke, consultant chez C2i.fr –, cette épreuve a, cette année, récompensé deux équipes également françaises (voir encadré). Dans le cadre d’un jeu de stratégie, chacune des deux équipes participantes doit programmer par avance une armée de robots aux fonctions variées, sans connaître ni le terrain de jeu (labyrinthes, emplacement des ressources…), ni la position de l’adversaire. Selon Thomas Lucchini de Microsoft France, «Le Projet Hoshimi met en lumière les capacités d’anticipation des compétiteurs. Mais nous nous sommes rendu compte qu’il s’agissait en plus d’un formidable outil d’apprentissage à la programmation. Les étudiants téléchargent un SDK gratuit et utilisent ses fonctions (riches mais simples) en Visual Basic ou C# afin de créer une DLL qui correspond à leur stratégie. Ensuite, la partie – d’une durée de cinq minutes – se joue toute seule et l’on observe au travers d’un épatant moteur 3D le résultat de ses commandes. C’est simple, attractif, pédagogique et ça contribue à la recherche sur l’intelligence artificielle. Nous espérons que le succès de projet Hoshimi à l’Imagine Cup incitera les enseignants à l’utiliser dans le cadre de leurs cours. » Pour Microsoft, il s’agit de promouvoir un produit susceptible d’agglomérer autour de sa plate-forme .Net les nouvelles générations de développeurs, à la barbe de la bonne image dont jouit Linux chez les universitaires.

foto116875_Copier7.giffoto216873_Copier8.giffoto316871_Copier9.gif
De gauche à droite : Vincent Le Quéméner dans la catégorie Interface Design, Julien Garino dans la catégorie Software Design, et Daniel Boteanu (médaillé de bronze dans la catégorie IT).
Livres
Réduire
La somme du management de système

274407156014274_Copier5.gifParue le 18 août dernier, la dernière édition du « Management des systèmes d’information » continue son immuable carrière de vade mecum des concepts fondamentaux des systèmes d’information, tout en prenant en compte les aspects les plus novateurs des nouvelles technologies comme l’importance prise par les réseaux ou  les règles de gouvernance. La neuvième édition s’enrichit de sections couvrant des concepts organisationnels comme la stratégie, la prise de décision ou l’éthique, les technologies (commerce électronique, réseaux, Internet, sans fil) et la gestion des SI notamment la sécurité et la gestion des infrastructures. Cet ouvrage doit se concevoir comme un manuel ou un support à vocation pédagogique. Il donne les bases nécessaires pour tout comprendre dans un système d’information. Le contenu de cet ouvrage n’est donc pas pour les spécialistes.
La partie sur les logiciels et l’amélioration des processus est l’une des plus abouties apportant un résumé clair sur des problématiques souvent peu évidentes comme la gestion des connaissances, les ERP ou les systèmes décisionnels. Pour les autres, les exercices en fin de chaque chapitre permettent de savoir si l’on est toujours dans le coup, sans avoir oublier le minimum vital !

Auteur :
Kenneth et Jane Laudon, adapté par Éric Fimbel
Éditeur : Pearson Education
ISBN : 2-7440-7150-0
750 pages, 49 euros


Subversion n’est plus underground !

Subversion-119196439_Copie6.gifOutil Open Source de contrôle de version, Subversion se fait une réelle place au soleil ! L’ouvrage paru chez Eyrolles consacre sa percée dans le monde des développeurs. Il s’adresse tout d’abord à eux pour les aider à parfaire leur pratique du contrôle des versions. Plus indirectement, il s’adresse à ceux qui souhaitent s’initier à ce contrôle des versions lors d’un projet mené en mode collaboratif. Le livre débute sur les avantages comparés de Subversion sur d’autres outils analogues. Il détaille ensuite toutes les fonctionnalités et possibilités du logiciel. Il propose en fin d’ouvrage un cas de migration vers l’outil après avoir passé en revue les commandes courantes d’utilisation, ainsi que les principales méthodes d’administration et de sécurisation du logiciel. L’attrait principal du livre est d’apporter des éléments pour la gestion quotidienne d’un projet Subversion : règles à respecter et pièges à éviter sont finement détaillés. Un résumé des commandes et les ressources possibles en ligne complètent de manière bienvenue, un ouvrage très pratique et sans bavardage excessif. Une réussite.

Auteur : Mike Mason
Éditeur : Éditions Eyrolles
ISBN : 2-212-119194
191 pages, 25 euros


Tous les modèles de contrats informatiques et électroniques

Le juridique envahit de plus en plus le terrain autrefois vierge des nouvelles technologies. Quelles règles commandent à l’édition de logiciels  ? Quelles sont les obligations d’un fournisseur ou d’un loueur de matériel ? La quatrième édition de l’ouvrage de Philippe Le Tourneau, paru chez Dalloz dans la collection Dalloz Référence, réussit la performance de faire le point sur les différentes questions juridiques en rapport avec l’informatique en restant lisible. Même si l’ouvrage conserve l’aspect austère des livres de droit, les éléments donnés sont précis et font de constants rappels à la jurisprudence et aux textes législatifs ou réglementaires les régissant.
À ranger dans sa bibliothèque, au cas où…

Auteur : Philippe Le Tourneau
Éditeur : Collection Dalloz Référence, Dalloz
ISBN : 2 247 06896 0
339 pages, 69 euros
p.1
Réduire
L’intelligence au cœur des réseaux LAN et WAN
Par Olivier Pavie - Copyright L'Informaticien, tous droits réservés

Décentraliser, analyser, canaliser, contraindre, décharger… Les verbes ne manquent pas pour qualifier le nombre de mécaniques intelligentes qui désignent aujourd’hui les actions et réactions au cœur des flux de données. Ils « vivent » dans les infrastructures mises à leur service pour leur assurer cohésion, performance et sécurité.

L’intelligence dans les réseaux, et plus particulièrement en matière d’infrastructure, s’intéresse à tous les rouages que l’on peut y trouver, tant sur le plan physique que purement virtuel. Couplés les uns aux autres de la manière la plus judicieuse, ils vont permettre de favoriser en toute sécurité l’ensemble des transits et traitements des données par toutes les applications employées, celles qui ne le doivent pas, ou alors seulement sous certaines conditions. Autant dire que le sujet est large. Commençons par le commencement.


De l’analogie de deux situations

L’ère post-industrielle que nous vivons consiste en la construction d’une nouvelle infrastructure physique de transport et d’échange d’information qui s’accompagne du développement massif et ininterrompu de nouveaux réseaux virtuels communicants, interconnectés ou non.

Ceux-ci sont matérialisés par les multiples flux de données numériques qui s’échangent à tous propos et pour tous usages, sans cesse grandissants, sans cesse plus gourmands.

Le réseau informatique d’aujourd’hui s’avère être un concept qui se rapproche de celui du  saint-simonisme (Claude-Henri de Saint-Simon, 1760-1825) et de ses disciples qui a conduit l’industrialisation de la France pendant toute la première partie du 19e siècle. Les enchevêtrements de réseaux « virtuels » de communication se comportent comme un organisme vivant qui profite des infrastructures physiques qui lui sont accessibles, tout en leur demandant adaptations et améliorations constantes.  


Des normes pour les « bas niveaux »

Sur un plan strictement pratique, et en revenant sur les éléments qui viennent d’être décrits, la compréhension du fonctionnement et de l’intelligence de ce que proposent les acteurs du marché de « l’infrastructure » tient en partie dans celle des « couches » réseau dans lesquelles ils interviennent. Il y a des acteurs qui s’occupent des couches « bas niveau » très liées aux déploiements physiques du réseau, et d’autres – parfois les mêmes – qui vont jusqu’à une certaine intellectualisation de la maîtrise des flux.
Les couches bas niveau physiques sont directement liées aux fondements de la norme Ethernet et commencent avec des fonctions implémentées dans le niveau 2. On ne parle même pas encore ici de protocole TCP/IP qui commence au niveau 3, mais simplement de ce qui permet à des cartes Ethernet de se greffer sur le réseau en étant capables de s’authentifier en indiquant ce qu’elles savent faire : cette dernière notion, justement au cœur des développements de l’intelligence de base, notamment sur un plan sécuritaire, nécessite aussi que les équipements matériels soient prévus pour gérer ces intelligences. 



Microsoft NAP au cœur de la stratégie sécuritaire de Vista
NAP – pour Network Access Protection – est le moteur d’intelligence sécuritaire implémenté dans Windows Vista et dans les versions serveur de la famille Longhorn. Ce dispositif se veut être un processeur d’intelligence sécuritaire au cœur du fonctionnement réseau. Comme nous le décrivons dans l’article, NAP est ouvert à la réflexion puisqu’il sait déjà accueillir des briques (ou « composants ») d’intelligence propriétaire, comme par exemple le NAC de Cisco, et les rendre interopérables grâce à des accords de développement croisés. En outre, NAP est aussi conçu pour s’interfacer avec des protocoles ouverts à différentes formes d’interventions sécuritaires dans le réseau. NAP s’interface avec des communications basées sur IPSec, il est capable de gérer l’authentification 802.1X et travaille sur des VPN, etc.



 
Il y a NAC et NAC

Le NAC, pour Network Administration Control, est une notion d’intelligence du réseau imaginée par Cisco, il y a environ quatre ans, pour satisfaire au besoin minimal de la sécurisation et de son interopérabilité au sein d’un réseau. Le NAC est aujourd’hui au cœur de la réflexion de l’ensemble des acteurs du marché des équipements d’infrastructure réseau dont les trois tendances, même si elles convergent, sont représentées par Cisco, Enterasys et Nortel, et le TNC (le groupe Trusted Network Connect) qui regroupe plus de 135 membres dont HP Procurve, Microsoft, etc. Le TNC faisant partie du TCG, Trusted Computing Group (www.trustedcomputinggroup.org).
Une des clés de la réflexion de Cisco était, à l’origine, de compléter le simple procédé du Login/mot de passe – même s’il était éventuellement contrôlé par divers procédés complémentaires de type « token » – par un dispositif d’authentification physique actif directement lié au matériel « client » et à sa spécificité. L’authentification physique d’un matériel, complétée par un procédé intelligent d’analyse des « compétences » dudit matériel, était née. Sur cette base, Cisco a développé des équipements propriétaires avec toutefois une volonté d’interopérabilité. Cisco en est arrivé à annoncer le NAC 4.0, en juillet 2006, modèle d’implémentation décliné en une offre verrouillée sur ses matériels, le NAC Framework, et une offre ouverte sur la gestion des autres infrastructures appelée Cisco Pin Access.
L’intelligence en matière de sécurisation associée au matériel va jusqu’au niveau système d’exploitation et applicatif : l’annonce du support de NAC (de Cisco) dans Microsoft NAP (voir encadré) le 6 septembre 2006 montre les besoins de chacun des acteurs du marché d’assurer une complémentarité et une interopérabilité de plus en plus grande de leurs systèmes. L’objet de l’accord entre Cisco et Microsoft tient presque du GIE autour de l’infrastructure réseau.


La guerre des « briques »

Le NAC au sens large, qu’il s’agisse de celui d’Enterasys, de Cisco ou de membres du TNC, est une base de réflexion conduite par l’idée de management de l’infrastructure matérielle réseau gérée depuis longtemps par le protocole SNMP qui se situe dans la couche de niveau 3 d’Ethernet. En ayant ajouté une intelligence au niveau 2, c’est le niveau 3 qui en tire directement profit. Dans cette logique, chaque niveau de couche Ethernet s’empile et profite au niveau qui lui est supérieur. Toute la difficulté dans la compréhension consiste à matérialiser l’empilement des couches comme le montre bien Khao-Dong Tiet, responsable du marketing HP ProCurve en France (voir encadré). C’est là, en tous cas, que l’on peut commencer à parler de « guerre des briques », tant la sémantique joue dans le monde des couches réseau. En tout état de cause, c’est au-dessus de la couche 3 que l’on entre dans une logique d’échange de données liée non plus à l’infrastructure matérielle, mais plutôt à l’exploitation de l’infrastructure matérielle pour les flux de données liés à des usages des clients du réseau.
C’est un peu comme commencer par réfléchir au déplacement, au remplissage et au paiement du contenu du caddie du consommateur dans le supermarché plutôt qu’à la logistique d’approvisionnement et de mise en rayon des produits. Une autre métaphore serait de commencer à penser au voyageur et à son voyage dans le métro avant de travailler à la logistique de l’infrastructure de transport, même si les deux notions sont intimement liées.


L’intelligence dans le réseau

Ce qu’il faut donc analyser au-dessus de l’infrastructure physique proprement dite, c’est le « bénéfice services » dans l’intelligence censée compléter les besoins des administrateurs de l’infrastructure et des utilisateurs des données proprement dites des applications « métier ». Dans la nébuleuse de produits et services qui s’ouvre alors devant vous, l’intelligence est très large et englobe une chaîne de traitement complète, mais totalement modulaire en fonction des besoins et des choix technologiques : authentification matérielle par l’infrastructure, conformité matérielle et logicielle par agents intelligents, optimisation passive et active des « tuyaux » de l’infrastructure par les techniques de QoS (Quality of Service) et ToS (Type of Service), et, enfin, analyse, optimisation et contrainte active, dynamique et intelligente des flux réseaux LAN et WAN en fonction de l’affectation du flux à un usage précis ou non dans un cadre de données brutes, de traitement sûr du fichier ou dans un mode opératoire d’application, distribuée ou non. Ouf !
C’est dans le cadre de cet ensemble de traitements intelligents, sur lequel interviennent quantité d’acteurs, que nous vous proposons ci-après les points de vue synthétiques de plusieurs d’entre eux que nous avons interrogés.


Le positionnement dans les flux

Ce qui ressort de l’analyse du « marché » de l’intelligence dans les flux réseau est qu’il existe trois niveaux principaux d’intervention que l’on peut qualifier de transversaux, car complémentaires les uns aux autres : l’analyse, l’optimisation et la contrainte. Un point particulièrement intéressant dans cette section de l’intelligence appliquée aux flux est que des équipements concurrentiels peuvent quasiment s’empiler les uns sur les autres en devenant complémentaires. En matière de flux, le virtuel et le sémantique vont de pair et demandent souvent une explication assez précise de la part des intervenants pour comprendre ce qui distingue les uns des autres.
Afin de mesurer la philosophie des concepts, en termes d’analyse de flux, on va parler d’analyse comportementale. Dans l’analyse comportementale, il y a plusieurs techniques exploitables qui vont commencer par une inspection des paquets d’information. Ces paquets pourront être automatiquement reconnus et interprétés grâce à des signatures identifiées et comparées comme des empreintes digitales. En cas de variantes, l’analyse les marquera comme inconnues, à traiter ou « basées » sur une signature proche de telle ou telle autre signature. En regard des interviews réalisées, il apparaît que c’est résolument la manière dont la problématique est abordée, et bien évidemment résolue, qui semble positionner les produits de manière concurrentielle sur un marché. Analyser sans ralentir, contraindre en optimisant et en accélérant.


La bataille du WAN

L’enjeu essentiel du marché tient dans les solutions de transit de flux WAN (Wide Area Network), c’est-à-dire tous les transits qui relient sites centraux distants, site central et utilisateur, etc. Commençant par la qualité de service proposée par le lien physique, problématique à laquelle Ipnotic Telecom répond avec un modem multi liens particulièrement intelligent, les problématiques vont bien au-delà de l’optimisation par compression de flux. Il y a de nombreux facteurs qui interviennent dans l’évaluation des besoins.  Un exemple qui peut assez bien illustrer tous les facteurs qui interviennent, c’est le travail au sein d’applications distribuées sur toutes sortes de clients reliés à des centres serveurs intercontinentaux. Les intelligences proposées par les intervenants dans ce domaine dépassent la sémantique ordinaire. Il faut recourir à des analogies comme celle d’Eugène K’Dial, directeur de Packeteer France en ce qui concerne sa solution de WAFS (Wide Area File Server) : un fichier ouvert à distance avec WAFS, c’est un peu comme une séquence vidéo Mpeg, seuls les bits qui ont changé à l’instant T sont transmis. Au-delà de cette analogie très simple, la bataille du WAN est ouverte. Streamcore, société française créée par un ancien de France Télécom, représentée dans ce dossier par son P-DG, Diaa Elyaacoubi, est là pour le prouver. QoS et qualité de service vont de pair, mais ne veulent pas systématiquement désigner la même chose. QoS est un terme technique rigide, totalement cadré par les ingénieurs et administrateurs réseau. Qualité de service est en revanche une expression beaucoup plus vaste qui englobe la satisfaction client – entreprise et utilisateur final. Les intervenants en matière d’intelligence dans les réseaux l’ont bien compris. La période est à la consolidation des métiers du réseau en général : de nouvelles intelligences se développent sans cesse pour satisfaire à telle ou telle nouvelle problématique et se vendent sous forme de brique au plus offrant. Un sacré marché pour le capital-risque.
p.2
Réduire
La gestion des actifs informatiques à partir de la technologie Intel vPro

Philippe Charpentier, responsable avant-vente Europe du sud Altiris
Altiris-Philippe-Charp17855.gif« Altiris est spécialiseé dans la gestion des actifs informatiques. L’entreprise a régulièrement élargi son offre en réalisant environ une acquisition par an. Parmi ces sociétés, BridgeWater Technologies acquise en 2004 et spécialisée dans une totale optimisation de l’usage de SNMP, a permis d’intégrer un management total des équipements réseau sans nécessiter d’intervention humaine. Pour les postes clients incluant PC, serveurs, clients légers, PDA, Altiris fonde son intelligence sur ses propres agents actifs installés et sait s’appuyer sur la technologie NAC de Cisco. Altiris est capable de délivrer une console unique d’administration orientée vers l’applicatif métier. La gestion des clients va jusqu’à l’isolement par “mise en quarantaine” d’un poste qui ne serait pas authentifié et conforme aux spécificités requises par le réseau. Cette période de quarantaine pouvant être fructueuse puisque permettant au besoin de rendre conforme le client. Altiris exploite la technologie Intel vPro, sorte de nouveau package “sécurité et management” d’Intel pour les ordinateurs professionnels qui proposent l’AMT (Active Management Technology) et la VT (Virtualization Technology). »


Analyser l’intégrité du client dans les couches basses

Khao-Dang Tiet, Responsable marketing ProCurve France chez HP
HP-Dang-Apr0617968_Copier6.gif« L’intelligence dans les équipements d’infrastructure réseau tient dans l’intégration de fonctions de qualité de service au sens QoS et de sécurisation, notamment par l’analyse de l’intégrité du client dans les couches basses de niveau 2. Au niveau 3, en back end sur le TCP, on peut par exemple réaliser du virus throttling ; une analyse comportementale des patterns de flux sur les ports peut facilement révéler la présence d’un ver, puisque, justement, l’une des caractéristiques de ces worms pour leur propagation est d’ouvrir instantanément une quantité de ports TCP. Tout aussi importantes, les possibilités de maintenance au sens large de l’ensemble des équipements. Le LLDP (802.1ab) ou Link Layer Discovery Protocol sert par exemple à découvrir des équipements, à isoler des problèmes, isoler un matériel par rapport à son voisinage, etc. Très utile pour la ToIP. L’évolution, c’est le réseau unifié en LAN qui intègre aussi les accès sans fil et une connexion authentifiée entre matériels. »


Une réduction drastique des temps de latence

Diaa Elyaacoubi, PDG de Streamcore

« Fondée par l’ancien Directeur Technique de Transpac, Streamcore s'est focalisée dès sa création sur l'intelligence de réseau et en particulier sur les problématiques que sont la congestion du WAN et le comportement des applications. Après deux ans et demi de commercialisation de ses produits sur 2004-2005, Streamcore a pris plus de 20% de parts de marché sur cette période avec un focus Grandes Entreprises. En 2006, plusieurs grands comptes comme Cora, l'Air Liquide, Suez et d'autres sont venus grossir le nombre des clients. Les derniers développements logiciels de Streamcore se sont focalisés sur la réduction drastique des temps de latence. La dernière innovation concerne la possibilité de garantir un niveau de service optimum à chaque utilisateur d'application interactive ou transactionnelle. »


Le « Proxying » dynamique pour analyser tous les types de trafics

Chris King, directeur du marketing produits chez Blue Coat

Blue-Coat-Chris-King-017857.gif« Blue Coat commercialise des solutions d’optimisation/sécurisation/contrôle des flux WAN orientés vers la satisfaction de l’utilisateur final. L’intelligence au cœur de la solution Blue Coat est basée sur un principe de Proxying (sorte de proxy évolué) dynamique et intelligent qui assure une totale visibilité sur les interactions contenu/applications/utilisateurs. Ce dispositif offre les moyens de traiter tous les types de trafics applicatifs, y compris le streaming et les flux SSL. Cette solution optimise totalement le flux WAN en plus de permettre une sécurisation et un contrôle total du trafic Web. Sans nécessiter de modification de l’infrastructure physique, la solution requiert toutefois des équipements matériels à installer aux extrémités à relier. »


Une intelligence dynamique des liens data et téléphonie

Jeremy Vinant, P-DG et fondateur d’Ipnotic Télécom

ipnotic-Jeremy-Vinant179498.gif« Ipnotic Télécom est un opérateur atypique. Il s’adresse aux entreprises en leur offrant notamment un service de qualité de lien WAN garanti basé sur l’ADSL, mais aussi du SDSL. C’est une des richesses de cet opérateur qui a développé son « Ipnobox » qui sert à la fois au lien Données et VoIP. La disponibilité de service annoncée ? Supérieure à 99,9 %. Allègrement. Comment ? En intégrant dans la boîte la gestion de deux interfaces reliées à deux réseaux d’opérateurs différents (Neuf Cegetel et France Télécom) avec une intelligence dynamique des liens data et téléphonie qui s’adapte à la charge et aux contraintes des backbones sans couper les communications en cours. Ipnotic Telecom compte parmi ses actionnaires CDC-EI et le Crédit Mutuel-CIC. En termes d’axes de développement, Ipnotic Télécom annoncera très prochainement la première offre de messagerie totalement unifiée fixe, fax, mail et mobile. »



Des sondes applicatives pour visualiser les flux

Gauthier Harmel, co-fondateur et directeur marketing de Qosmos
« Le cœur de métier de Qosmos est celui de concevoir des sondes applicatives qui analysent les flux par reconnaissance de signature et analyse comportementale dans l’inspection des paquets IP. Ces sondes applicatives permettent une extraction très précise des flux à analyser par le biais de plug-in protocolaires. Ces plug-in peuvent être interrogés par un langage de Qosmos, dénommé NetSQL, pour être ensuite exploités dans une table dynamique dans laquelle des variables propres à chaque flux et type de flux peuvent composer un tableau visualisable dans une console. Les sondes qualifiées de sondes d’analyse d’usage peuvent être placées à plusieurs endroits pour être exploitées afin de permettre une contrainte particulière des flux aux endroits choisis. Les nœuds typiques se situent au niveau d’interconnexions LAN/WAN/Internet. »



De l’intelligence au niveau des switchs

Frédéric Aguillar, Enterasys

« Enterasys fournit du débit et de la connectique aux utilisateurs. Une des caractéristiques essentielles d’Enterasys, c’est d’offrir QoS et sécurité traitées non par du CPU mais au niveau 2, 3 ou 4, directement au niveau des switchs avec une détection automatique d’intrusion assurée notamment par sa technologie Dragon HIDS. La stratégie de la gamme Secure Network est une approche utilitaire/sécuritaire depuis déjà longtemps basée sur des standards ouverts, comme par exemple 802.1p pour la QoS, 802.1X pour l’authentification, etc. Au delà, Enterasys valorise tout le traitement des switchs par des fonctions de management sophistiquées. À moyen et long termes, ce qui est attendu, ce sont les nouvelles générations d’Asics qui permettront d’intégrer certains services aujourd’hui traités par des appliances extérieures directement à l’intérieur des switchs : la flexibilité et la performance du réseau n’en seront que meilleures, mais seront en plus associées à la sécurisation intrinsèque de l’infrastructure. »


Valoriser le WAN comme un LAN

Richard Hernu, responsable développement des solutions de réseaux chez NextiraOne
nextiraone-Richard-Her17959.gif« NextiraOne se positionne sur le marché en tant qu’intégrateur réseau. L’intelligence dans le réseau se décompose en plusieurs étapes. Un premier niveau consiste à exploiter les couches basses d’Ethernet pour gérer flux et contraintes de flux au sein de l’infrastructure, via les fonctions de gestion de QoS, que tous les matériels possèdent. La seconde étape consiste à disposer d’une reconnaissance automatique de tous les périphériques connectés, notamment grâce à POE (Power Over Ethernet) particulièrement pratique dans le cadre de l’utilisation de téléphones IP, des bornes réseau sans fil, etc. Le troisième niveau qui se matérialise alors de lui-même concerne l’authentification matérielle avec un procédé de Self Defending Network comme par exemple le système NAC de Cisco. Les niveaux d’intervention, par exemple jusqu’au niveau 7, permettent d’essayer de valoriser le WAN comme un LAN grâce à des boîtiers de qualité de service, de métrologie et de supervision. De ce côté, on en arrive à une vraie maturité des outils et services qui conduit à une consolidation des équipements en une seule “boîte”. »



Repousser les limites des protocoles pour réduire la latence

Eugène K’Dial, directeur de Packeteer France

« Packeteer a un peu plus de dix ans et se trouve être spécialisée dans l’optimisation WAN en général. Depuis le rachat de Tacite en 2004 (100 personnes), la société emploie presque 500 personnes. Le Portfolio contient des briques de visibilité, de gestion de priorité et d’amélioration. En matière d’amélioration, il y a l’aspect classique de la compression, mais aussi celui qui consiste à repousser les limites des protocoles en les changeant pour améliorer la latence. Pour cela, le cœur de notre offre, c’est le Packet Shaper, pour lequel différentes briques vont être exploitables. Avec le mouvement de retour vers les mainframes et de consolidation de serveurs, l’intelligence diablement efficace en sciences de l’optimisation, c’est la technologie WAFS (Wide Area File Server) qui la délivre. Seules les modifications sont transférées au cœur de boîtiers qui créent et maintiennent des liens multi-fichiers. En définitive, la tendance globale autour du WAN est de toujours tenter de donner une “perception utilisateur acceptable”. »



Agréger les paquets d’application au niveau LAN

Mark Lewis, directeur marketing Europe chez Riverbed
« Riverbed est spécialisée dans l’optimisation WAN et assure l’ensemble des services WDS (Wide area Data Services) pour les trois points d’entrée fondamentaux que sont le réseau, le stockage et les applications. Les équipements de Riverbed portent le nom de Steelhead. Il s’agit d’appliances qui agissent au niveau de la bande passante, du protocole de transport et jusqu’à la gestion de la latence pour les flux d’applications. Toutes les Steelhead sont complètes. Ce qui différencie les produits, ce sont les nombres de traitements simultanés. Cela va de 25 connexions TCP qui correspondent à l’utilisation d’environ cinq personnes (environ 1 Megabit/s) jusqu’à des millions de connexions TCP pour 4 Gigabits/s de bande passante. Pour les flux d’applications et la gestion de la latence, une Steelhead fonctionne en se basant sur le fait que la latence LAN est très faible alors que la latence WAN est très importante : l’intelligence travaille à agréger les paquets d’application au niveau LAN avant de les transmettre, réduisant ainsi la latence jusque dans un facteur de 60 par rapport à une totale absence de traitement de ce phénomène. »
p.1
Réduire
Impression en réseau : la chasse au gaspi est ouverte !
Par Olivier Bouzereau - Copyright L'Informaticien, tous droits réservés

Pour produire des documents de qualité à moindre coût, l’entreprise examine les périphériques multifonctions. Entourés de logiciels de gestion, ils tentent de faire fondre les coûts par page ou d’orchestrer l’archivage des documents électroniques.

imprimantes310565_Copier5.gifLes imprimantes multifonctions remplacent peu à peu les imprimantes personnelles.
Quels sont les nouveaux enjeux de l’impression dans l’entreprise ? En milieu professionnel, on cherche à imprimer rapidement des documents de qualité, tout en contrôlant les coûts. Imprimantes et copieurs sont renouvelés avant tout pour gagner en productivité. Quelques « lasers » départementales remplacent à présent de nombreuses « jet d’encre » personnelles, plus coûteuses à l’exploitation qu’à l’acquisition. Imprimer les télécopies sur du papier ordinaire ou recyclé devient possible sur l’équipement multifonction (EMF), ou en anglais Multifunction Printer (MFP). En regroupant les fonctions d’un scanner, d’une imprimante, d’un copieur et d’un télécopieur, ce périphérique connaît une croissance soutenue, soit 13 % l’an. Logique : il consomme moins d’énergie, occupe moins de place, pilote l’entrée et la sortie de documents et propose plusieurs modes de communication : l’e-mail, le fax, le réseau Ethernet, le lien Wi-Fi…

Des usages à modérer

Dans l’entreprise, le périphérique multifonction devient un élément clé du système d’information, mais il ne remplace pas toujours les périphériques individuels. Changer les habitudes d’utilisation forme toujours le défi principal. Pour y parvenir, quelques entreprises ont recours à l’externalisation du parc d’impression, comme l’entreprise strasbourgeoise Wurth (lire en page 46). Cela facilite la mutualisation des équipements, améliore leur disponibilité et permet un meilleur contrôle du coût par page. Auparavant, un audit du parc d’impression aide à repérer les applications et les groupes d’utilisateurs les plus gourmands. Il permet de concentrer les efforts de rationalisation au bon endroit. Les tableaux générés par l’audit provoquent souvent un électrochoc. En effet, les impressions pèsent jusqu’à 3 % du chiffre d’affaires annuel de l’entreprise, confirme le Gartner. Un petit effort sur le nombre de pages imprimées ou sur le nombre et l’emplacement des périphériques offre un répit à la nature et peut soutenir la croissance de l’entreprise.


La couleur se démocratise

Après celle du parc, la remise en question des comportements et des procédures d’impression s’avère souvent bénéfique. Plutôt que de proscrire la couleur, l’entreprise cherche à l’utiliser avec parcimonie, sur certains documents ou graphiques financiers seulement. Le travail sur écran, à partir de documents numérisés, devient souvent envisageable et plus rapide qu’une recherche dans les archives papiers.
Mais la démocratisation des périphériques couleur encourage leur utilisation. Le MFP d’entrée de gamme est commercialisé autour de 129 euros contre plus de 130 euros pour l’imprimante seule (prix moyens mesurés par GFK). Accessibles aux PME comme aux particuliers, les périphériques multifonctions couleur deviennent des armes concurrentielles pour les fabricants attirés par la croissance et donc le volume potentiel du marché.
Dernière tendance : on assiste à une explosion des fonctions logicielles autour des imprimantes. Les avancées significatives proviennent de programmes tantôt embarqués, tantôt installés sur le poste de travail ou sur un serveur d’impression. Grâce aux fonctionnalités ainsi ajoutées, l’imprimante devient un véritable couteau suisse plutôt qu’un simple point de sortie du système d’information. Capable de numériser puis de transmettre un document dans la foulée, le MFP accompagne parfois une réflexion plus globale, sur le cycle de vie des informations d’entreprise. Nul doute qu’il participera à la prochaine refonte de l’archivage, avec l’ILM (Information Lifecycle Management), un concept de stockage, de recherche et de restitution rapide d’informations numériques réduisant les manipulations sur l’ordinateur.


Restituer l’essentiel
Votre entreprise imprime-t-elle plus ou moins qu’il y a un an ? Difficile de répondre précisément à cette question et pour cause : les dépenses d’impression, de télécopies, de photocopies et de consommables sont rarement consolidées. En outre, les prix évoluent rapidement : la couleur se démocratise à son tour, mais elle coûte toujours huit fois plus cher que le noir et blanc. Les périphériques multifonctions simplifient la captation, la transmission et l’impression de documents. On pourrait croire l’imprimante personnelle en danger. Que nenni. Plus de 100 millions d’appareils photo numériques seront vendus cette année, provoquant souvent le renouvellement d’une imprimante. Sorti de l’ombre en quelques mois, l’APN éclipse déjà le procédé argentique, mais gare au réflexe d’impression ! Dans l’entreprise, une sélection des usages s’impose. Faute de quoi, c’est l’envolée des coûts. Les solutions d’impression modernes s’entourent d’outils d’administration et de logiciels d’optimisation des coûts. Elles doivent aussi s’accompagner de bonnes pratiques.




Plusieurs pistes pour optimiser les coûts d’impression

La chasse au gaspi est ouverte. Les fournisseurs qui veulent en profiter sont déjà nombreux, avec chacun leur méthode : audit, logiciels et services d’externalisation visent à réduire les coûts d’impression.

«Souvent, l’entreprise n’a qu’une vue macro de ses coûts d’impression. Elle ignore qui imprime quoi, où et comment », observe d’emblée François Burtin, chef de produits des gammes multifonctions laser, chez HP. Pour tracer les événements et gérer plus finement l’utilisation des périphériques, il faut un moyen de contrôle centralisé. HP fournit l’outil Web JetAdmin, une plate-forme de supervision Web capable de révéler la consommation de chaque groupe de travail, les applications et les périphériques les plus sollicités dans l’entreprise. Canon, Konica-Minolta, Ricoh et quelques autres proposent des plug-in pour ce logiciel afin de gérer leurs périphériques, sans avoir à multiplier les consoles d’administration.  Une impression de meilleure qualité, moins coûteuse, respectant les exigences des utilisateurs et préservant l’environnement… Le défi à relever est important. Il préoccupe, à juste titre, de nombreuses entreprises et administrations, ainsi que leurs fournisseurs. Les déclarations d’intention ne suffisent plus. Il faut se pencher sérieusement sur l’étude des flux d’impression, puis examiner la finalité de chaque imprimé : « Global Print Solution, de Brother, est un programme qui répond aux attentes de réduction des volumes d’impression de nos clients. C’est une approche plus structurante que la démarche marketing et commerciale habituelle. Elle passe par un audit et par la prise en compte des flux d’impression de l’entreprise répartie sur plusieurs sites », explique Philippe Simon, le directeur de la communication de Brother France. L’analyse détaillée des flux et des rapports professionnels conduit à redéfinir puis à déployer la configuration appropriée, celle capable d’apporter l’économie souhaitée. Réduire le nombre de pages mensuelles imprimées devient indispensable. « Il s’agit non pas de vendre moins d’imprimantes, mais bel et bien d’anticiper les demandes professionnelles », explique-t-on chez Brother.


Migration de périphériques

Même constat chez Tally Genicom France : « Dans de nombreux cas de figure, on doit rationaliser et repenser un système complet, composé de 4 000 imprimantes. C’est le cas dans les centres hospitaliers ou chez les constructeurs automobiles », illustre Patrick Borello, directeur des ventes de Tally Genicom.
Selon lui, l’étude et l’optimisation des flux transactionnels doit précéder le remplacement des périphériques. L’adjonction de logiciels aide à personnaliser les éditions et à éliminer les pré-imprimés, jusqu’à dix fois plus coûteux que le papier blanc.
Avec le logiciel PlanetPress, Tally Genicom propose la migration d’imprimantes à impact vers les modèles sans impact en suivant le standard PostScript et en mettant l’accent sur l’archivage électronique. « De très grosses économies sont générées lorsqu’une imprimante à 600 euros avec un paramétrage d’une demi-heure apporte des sorties de qualité laser en remplacement d’une imprimante ligne », signale Patrick Borello. Il estime le prix de revient d’une laser à quelque 2 centimes par page, avec des économies de temps, de manipulation et de stock à la clé. L’imprimante matricielle, longtemps la plus fiable, requiert une maintenance finale-ment coûteuse de ses modules mécaniques.
La bonne diffusion des documents électroniques, dans le temps et dans l’espace, procure une autre source d’économies d’impression. Elle passe par la mise en place de règles d’archivage, d’accès et d’édition pour n’imprimer que les pages utiles d’un dossier partagé. Par exemple, le dossier des patients d’un CHU comprend de multiples éléments d’informations, dont certains sont utiles à l’accueil, à la radiologie, au laboratoire… Définir les bonnes règles d’impression et s’assurer qu’elles sont bien appliquées devient l’affaire du serveur d’archivage, ou de la solution ILM (Information Lifecycle Management). Cette discipline tente de gérer le cycle complet des documents électroniques, mais elle reste souvent partielle, limitée à la messagerie et à la bureautique. Le serveur d’impression et les périphériques multifonctions pourront tenir un rôle croissant dans de tels projets.


Lorsque « ILM » remplace « film »
Le logiciel Cypress d’ASG transmet automatiquement des portions de documents pour n’imprimer que les pages nécessaires à chaque utilisateur. « Dans un centre hospitalier, cela permet d’imprimer 2 à 3 pages plutôt qu’une vingtaine par dossier patient », démontre Laurent Delaporte, vice-président EMEA Channel Sales d’Allen Systems Group. Avec Cypress, l’administrateur définit puis paramètre l’ensemble des règles nécessaires à l’économie d’impression recherchée ; l’outil agit ensuite comme un pilote d’impression universel. « Du coup, il est compatible avec tous les progiciels métier, y compris pour traiter des images radiologiques. [...] L’entreprise 3M pilote plusieurs milliers d’imprimantes à partir de ce logiciel. » Les rivaux d’ASG, tels que Documentum (EMC), Filenet ou Opentext, s’orientent eux-aussi vers le suivi du cycle de vie des documents électroniques et vers le référentiel de tous les documents d’entreprise.

p.2
Réduire
Moins de volumes, plus de solutions


imprimante411433_Copier6.gif
La percée des MFP et des imprimantes départementales se confirme dans l’entreprise. Mais, seule une administration rigoureuse de ces périphériques permet de réaliser des économies.


Il faut penser en solutions départementales et non plus en sorties individuelles, recommandent les fournisseurs. La démocratisation des imprimantes, les modèles laser notamment, autorise déjà de nouvelles audaces : lorsqu’on doit imprimer de grands volumes sur quatre papiers de couleurs distinctes par exemple, un cluster formé par quatre lasers à 8 000 euros devient préférable, plus performant et moins coûteux qu’un modèle haut de gamme unique composé de quatre bacs (vendu 45 000 euros environ).
Les logiciels fournis gèrent le pool d’imprimantes, vu comme un seul et même périphérique par les utilisateurs du groupe de travail. Les périphériques multifonctions exigent, eux aussi, une supervision plus rigoureuse. C’est pourquoi les fabricants les accompagnent volontiers d’un serveur Web embarqué, d’outils d’administration, d’examens des flux d’impression, voire d’une formation aux nouvelles pratiques.


Impressions à la demande

Mais la refonte globale du parc d’impression n’est pas toujours indispensable. Parfois, un nouveau paramétrage du serveur d’impression associé à une extension mémoire suffit à réduire les délais d’attente des utilisateurs. Avec le « pool printing », l’entreprise établit son propre système d’impression à la demande. Elle évite d’éditer de volumineux documents, envoyés trop hâtivement vers l’imprimante. Les analystes estiment que 15 % du contenu des bacs partent directement à la poubelle. Éliminer ces impressions parasites forme une piste d’économies.
Autre intérêt du modèle départemental, l’utilisateur doit se déplacer vers un périphérique d’étage, puis entrer parfois un code personnel pour confirmer l’édition. À distance, l’administrateur peut consulter les journaux, vérifier les niveaux de consommables, les compteurs, la file d’attente… La démarche TPM (Total Print Management) d’HP propose d’associer matériels, logiciels et services pour optimiser les coûts d’impression et réduire les coûts cachés.
Premier constat, « le périphérique MFP départemental est utilisé plus de neuf fois sur dix pour des pages A4. Or, le bac A3 a un impact sur le coût d’acquisition », illustre Jacques Rozenblum, directeur marketing des solutions d’impression chez HP France. Retenir des MFP A4 paraît donc plus sensé, même si cela oblige à repenser l’architecture d’impression. En pratique, « les productions A3 du service marketing et les tableaux de bord du service financier vont s’appuyer sur des modèles A3 quasi personnels », suggère-t-on chez HP. Une exception qui préserve d’autant la confidentialité des documents édités.


Un niveau de service plus élevé

Plusieurs constructeurs vont lancer, à l’automne, des MFP A3 au prix des versions A4 disponibles jusqu’ici. Autre tendance, la couleur arrive au prix du noir et blanc sur les périphériques multifonctions également. La principale interrogation de l’entreprise consiste à gérer l’élévation du niveau de service attendu par les utilisateurs. Les outils d’administration deviennent importants à ce stade, pour prendre le contrôle des périphériques à distance et éviter le déplacement d’un technicien sur site à chaque fois qu’il faut reconfigurer l’imprimante. Cela réduit les coûts de maintenance et de helpdesk.
François Burtin, chef de produits des gammes multifonctions laser d’HP, souligne l’importance des fonctionnalités d’alertes : « Avec le logiciel Web Jet Admin, l’administrateur peut intervenir avant qu’une cartouche soit vide et préparer le bon kit de maintenance pour améliorer la continuité de service. » Un autre objectif du multifonction consiste à limiter les manipulations et les traitements sur le poste de travail. Le MFP tire profit de logiciels embarqués, exécutés sur le poste de travail ou sur un serveur d’impression : « Avec le logiciel PlanetPress, un bon de commande reçu par fax peut être transmis directement sur les postes de travail des commerciaux, avec une copie à la direction puis une autre archivée automatiquement. De plus, on peut retrouver en moins d’une minute une ancienne facture éditée il y a deux ans, afin de la transmettre aussitôt par e-mail », précise Patrick Borello, directeur des ventes de Tally Genicom. La solution d’impression incluant PlanetPresse est commercialisée entre 2 000 et 3 000 euros, MFP compris. Et pour l’installer, un serveur Windows en réseau suffit.

De plus en plus de périphériques proposent l’envoi par courriel après numérisation sans passer par le PC (scan2mail). Le modèle MF9035 de Tally Scan offre en outre une fonction « Scan to FTP » pour archiver directement les documents recto-verso dans un répertoire partagé du serveur FTP. En effet, la personnalisation des fonctions d’impression ne fait que commencer…

Le MFP s’ouvre au workflow personnalisé
Impression et confidentialité évoluent parfois de concert : « La demande de nos clients devient forte pour gérer la problématique de confidentialité des échanges et des impressions », reconnaît Jacques Rozenblum, chez HP France. Face à la diversité des menaces, le constructeur propose plusieurs pistes : le chiffrement des fichiers, l’usage de codes confidentiels, voire l’archivage ou l’ILM sécurisé de bout en bout. Il arrive néanmoins que le périphérique départemental, placé dans un couloir, crache des télécopies confidentielles dès leur réception, ce qui provoque généralement la colère des destinataires. Serveur de télécopies et passerelles de messagerie gomment cette indiscrétion. Parfois, l’entreprise va plus loin dans la personnalisation et entame un développement sur mesure : « Pour une banque, nous avons été amenés à concevoir une interface utilisateur spécifique du multifonction. Les boutons de l’imprimante accélèrent ainsi la numérisation, l’intégration du document numérique dans le système d’informations puis sa transmission sécurisée pour raccourcir le délai d’obtention du prêt bancaire », précise Jacques Rozenblum. Jusqu’ici, l’entreprise n’avait pas pour habitude de se tourner vers son fournisseur de périphériques pour de tels projets.



De nouvelles règles pour l’industrie

Archivage, réduction de l’énergie et des consommables, traitement des déchets… De nouvelles règles obligent l’industrie à repenser le design de ses produits et à accompagner leur cycle de vie complet.

En amont chez les fabricants, comme dans l’entreprise utilisatrice, on cherche à réduire les coûts internes, parfois cachés, tout en rehaussant la rentabilité des produits et la productivité des équipes. Il s’agit aussi de respecter les dernières règles environnementales et de concilier, par conséquent, des objectifs parfois contradictoires. L’industrie du multifonction fédère les acteurs de la copie et de l’impression. Les uns comme les autres retiennent des moyens semblables pour optimiser les solutions d’impression. Ils cherchent à prendre en compte, dès la conception des produits, puis tout au long du cycle de vie, un nombre croissant de contraintes.
L’écodesign invite ainsi à repenser la démarche de création de nouveaux périphériques, en bannissant les substances toxiques pour la nature. Tous les composants du MFP sont concernés, qu’ils soient électroniques, mécaniques ou chimiques. Les coques d’emballage elles-mêmes évoluent et retiennent, chez Brother notamment, une cellulose moulée, créée à partir de vieux journaux, en remplacement du polystyrène expansé.
Les MFP sont émergents, mais en croissance rapide. Moins voraces en énergie et en consommable que quatre équipements individuels (scanner, télécopieur, imprimante, copieur), le multifonction occupe une surface au sol plus réduite. Du coup, sa production, mais aussi son stockage, son transport, son utilisation et son emprunte écologique évoluent dans le bon sens.
Les fabricants constituent des centres de stockage et d’approvisionnement paneuropéens. Ils valorisent leurs déchets au travers d’une collecte et d’un recyclage mieux coordonnés. Reste à faire connaître et à propager ces bonnes pratiques à tous les stades de la distribution et, au-delà, dans les entreprises utilisatrices. Un défi actuel des fabricants consiste à suggérer sans cesse de nouvelles pistes de réduction des coûts, sans scier la branche sur laquelle ils sont assis. Les propositions de valeur pour l’entreprise ciblent maintenant l’intégration des périphériques au système d’information, la révision des processus internes et de certaines habitudes d’utilisation, pour limiter l’usage des imprimantes et des copieurs. Les formules d’audit, pour leur part, aident à mieux renouveler les périphériques en place. On optimise mieux un parc d’équipements lorsqu’il est bien connu et maîtrisé. « Or, les multifonctions sont utilisés à 20 % de leurs capacités seulement, reconnaît Stéphane Bonnaud, le directeur marketing de Xerox France, « nous devons sortir des débats stériles sur la taille des formats, ou de la couleur contre le noir et blanc, pour propager de bonnes pratiques d’utilisation. Et nous devons faire connaître et adopter les possibilités d’archivage automatique à partir des MFP », suggère-t-il. Tous les équipements du constructeur ont un pedigree et un contrat d’entretien. En fin de contrat, cela simplifie le tri sélectif en fonction du nombre de copies et de l’état du matériel. En France, c’est la société G2R qui collecte les produits du constructeur et permet cette orientation vers la re-fabrication à partir de pièces recyclées, le retour à l’envoyeur, sous forme de matériels d’occasion, la destruction ou le reconditionnement des copieurs et MFP Xerox.
Avec les MFP, l’industrie et ses clients ont l’opportunité de réduire leurs coûts tout en imprimant mieux là où le papier s’avère réellement indispensable. Reste à faire adopter de nouvelles pratiques d’utilisation et d’administration des périphériques. Les logiciels, l’aide et la documentation doivent évoluer dans ce sens. Ils permettent déjà de mieux suivre les coûts d’impression et de diffuser l’information concernant les usages quotidiens. Progressivement, les utilisateurs feront eux-mêmes en sorte de réduire le nombre d’impressions, par exemple en numérisant des documents puis en les glissant directement sur une clé USB connectée au périphérique multifonction.


Wurth externalise son parc d’impression

Pour abaisser le coût de ses documents imprimés, copies et télécopies, l’entreprise strasbourgeoise choisit l’externalisation via XGS, et gagne de nouveaux indicateurs financiers, plus précis.


claude-muller11523_Copier7.gifWurth distribue pour les professionnels des fixations, de l’outillage et des équipements pour leurs ateliers. L’entreprise compte 700 salariés sédentaires, dont 400 actifs du secteur tertiaire qui éditent leurs documents sur des périphériques Agfa, HP, Ricoh et Xerox. « Nous avons fait un constat de suréquipement il y a plusieurs années déjà, mais personne n’osait s’attaquer au problème. Dans chaque bureau, on dénombrait des imprimantes, des fax et des copieurs », retrace Claude Muller, directeur de l’organisation et de la qualité chez Wurth. L’idée de mutualiser ces périphériques pour abaisser les coûts fait progressivement son chemin. En 2004, la filiale de Xerox, XGS, propose un audit gratuit. C’est le bon moment car le volume mensuel d’impression atteint 550 000 pages noir et blanc et 24 000 pages couleur : « L’audit a révélé des achats atomisés répartis entre les directions et plusieurs coûts cachés pouvant être réduits, au niveau de la maintenance et du soutien des utilisateurs. La proposition de XGS consistait à racheter nos matériels pour prendre en charge leur maintenance, en déléguant une personne sur place », poursuit-il. Cette formule d’externalisation du parc d’impression assortie d’une facturation à la page séduit les décideurs désireux de stopper l’escalade des coûts. Une fois le contrat examiné par le service juridique, puis signé, la refonte du parc d’impression peut démarrer. En avril 2005, de nouvelles imprimantes départementales et des périphériques multifonctions entrent en action : « Notre volume d’impression n’a pratiquement pas varié, en dépit d’une hausse de l’activité de 6 % en un an. Nous avons donc gagné un peu en nombre de copies, beaucoup plus en lisibilité du coût par page et en continuité de services », apprécie-t-il. Seuls quelques regrets éphémères ont été formulés par les utilisateurs, chagrinés par l’éloignement des périphériques départementaux.


Du gel dans vos imprimantes

Ricoh offre désormais une solution plus économique et plus rapide que le laser d’entrée de  gamme ou le jet d’encre professionnel. Pour réussir ce pari, il s’appuie sur une nouvelle technologie basée sur de l’encre gélifiée, destinée à l’impression couleur bureautique.


GX5050N-cartouches154516148.gifSi l’on en croit les analystes, tels que Gartner, IDC, Infosource, l’ère de la généralisation de l’impression couleur en entreprise est enfin venue. La seule inconnue – de taille – est de savoir pour qui le marché va opter entre le laser et le jet d’encre. Selon Ricoh, ni l’un ni l’autre : ce sera pour le gel ! Récemment, le constructeur, spécialiste du photocopieur, a lourdement investi sur des machines multifonctions laser. Aujourd’hui, grâce à Gelsprinter, sa nouvelle technologie, il espère bouleverser le marché. Cette technologie serait plus économique, plus rapide. De plus, elle répondrait mieux aux besoins de l’entreprise que le jet d’encre et le laser dans des impressions de moyen volume.
Bien que le jet d’encre tienne la tête en nombre de périphériques installés dans les entreprise, IDC annonce déjà son déclin. Il prévoit un recul de 40 % vers 2008 au profit du laser d’entrée de gamme, indique Solenn Eclache, chef de produit Gelsprinter chez Ricoh.
La technologie d’impression initiée par Ricoh se situe à mi-chemin entre les technologies laser classiques et le jet d’encre. Ce qui veut dire que l’on emprunte des éléments aux systèmes à laser tandis que d’autres sont issus du jet d’encre. Les avancées qu’offre cette technologie peuvent se résumer en trois points : le gel, le tapis électrostatique et les têtes d’impression. Ce qui provient du laser est le tapis de transfert électrostatique, qui permet de maintenir fermement le papier afin que les têtes d’impression défilent le plus précisément possible pour éliminer les bavures d’encre. Cela améliore la vitesse d’impression. Les têtes d’impression à gel d’encre de Ricoh s’apparentent à des têtes d’impression classiques jet d’encre à la différence qu’elles sont beaucoup plus larges (32 mm, contre 10,5 mm en moyenne). Elles permettent donc une impression beaucoup plus rapide. Ricoh recherche pour sa clientèle qui, rappelons-le, se situe sur le marché professionnel, de la productivité. Les imprimantes à gel récemment commercialisées par Ricoh assurent des vitesses d’impression de l’ordre de 29 pages à la minute, très proche du laser. On imprime en recto-verso sans attendre le séchage du premier passage. La résolution des Gelsprinter peut atteindre 3 600 x 1 200 ppp.


Un mode éco pour la couleur

« Alors que sur notre parc d’imprimantes laser, on note un pourcentage d’environ 30 % d’impression en couleur pour 70 % en noir et blanc, ce ratio, compte tenu de nos premières observations, évolue largement en faveur de la couleur pour les machines à encre gélifiée , explique Solenn Eclache. Elle poursuit en soulignant que « la combinaison des trois facteurs innovants réunis dans une imprimante fait que l’impression est maintenant très rapide avec un séchage quasi instantané ; le tout pour un prix proche de l’imprimante familiale ». De plus, poursuit-elle, « il est à noter que les impressions effectuées sur du papier classique, voire brouillon, résistent très bien dans le temps, et ce, aussi bien à la lumière qu’à l’humidité ».
Techniquement, les têtes d’impression sont alimentées par un petit circuit de tuyaux souples provenant des réservoirs situés sur le devant de l’imprimante. Ce circuit est au repos dans un petit réservoir de liquide afin de pallier une dessiccation en arrêt prolongé. Cette caractéristique leur confère une durée de vie équivalente à la durée de vie totale de la machine. Ricoh a également introduit un mode d’économie de la couleur, qui n’est pas un mode de brouillon, mais qui permet d’éditer normalement une page avec ses caractères noirs et blancs haute définition et de consommer dans les graphiques, histogrammes ou photos, la moitié de l’encre couleur habituelle. Les pages restent très lisibles, d’une qualité très satisfaisante pour la relecture de documents.

Ricoh entend réussir là où d’autres constructeurs de renom ont échoué. Il veut offrir une alternative au jet d’encre, mais aussi au laser d’entrée de gamme, moins rapide, et dont la qualité d’impression est loin d’atteindre les 3 600 x 1 200 ppp de résolution des Gelsprinter.

Coût de la page en couleur :
aux alentours de 0,10 euro.
En N & B : 0,017 euro.
Les imprimantes à gel sont équipées de quatre cartouches séparées (noire, cyan, magenta, jaune), le tout avec des capacités différentes selon le choix des utilisateurs.