lundi 26 septembre 2016
 
Métiers
Réduire
LOGICIELS ET SERVICES
10 000 emplois nets créés en 2006
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Dernièrement, le Syntec Informatique a présenté un panorama de la situation sociale du secteur des logiciels et services. Celui-ci est globalement positif, même si des tensions commencent à se faire jour…

4328915788_Copier5.gif
Alain Donzeaud, le président de la commission sociale du Syntec Informatique, a tout lieu d’être satisfait de son bilan. Le secteur est en effet un recruteur important de cadres. Dans le courant de 2006, les éditeurs de logiciels et les SSII ont créé 40 000 postes, dont 10 000 nets. Ces chiffres confirment ceux qui ont été rendus publics par l’APEC, l’Association pour l’emploi des cadres. Cette tendance se retrouve dans une rapide diminution du chômage des informaticiens issus du secteur « logiciels et services », alors que le chômage est encore important pour les informaticiens travaillant dans les entreprises clientes. Les allocataires du secteur logiciels et services n’étaient plus que 30 183 en juillet dernier, alors qu’ils dépassaient les 51 000 en décembre 2003. Cette diminution du taux de chômage dans le secteur est aussi plus rapide que la diminution du taux de chômage au niveau national.

Difficultés de recrutement

Les personnes recrutées sont à 50 % des « bac + 5 » : 23 % des jeunes ingénieurs sont désormais embauchés par le secteur des logiciels et services. Cependant, 35 % des collaborateurs du secteur ont plus de 40 ans.

Ce haut niveau de compétence est quasi général dans la profession : 94 % des collaborateurs du secteur ont un niveau minimum de « bac + 2 ».

Malgré cela, 65 % des entreprises du secteur ont déclaré avoir rencontré des difficultés de recrutement. Les grandes tendances dans les postes recherchés concernent des experts en connaissance métier, les développeurs produits et les commerciaux dans le secteur de l’édition de logiciels. Du côté des SSII, les difficultés se retrouvent sur des profils analogues : consultants métier et ERP, architectes, gestionnaires de projet et experts en nouvelles technologies. Parallèlement, le taux de turn-over est en progression et indique des tensions persistantes sur les profils sus-nommées. Tout aussi négatif : 50 % des démissionnaires quittent le secteur « logiciels et services ». Il est de plus en plus courant que les informaticiens du secteur rejoignent une entreprise dans laquelle ils ont effectué une mission.


Guerre de talents

Pour contrer ces tendances négatives, le secteur des logiciels et services, en particulier via son syndicat professionnel patronal, le Syntec Informatique, s’engage résolument dans des actions visant à la fois à favoriser l’attractivité du secteur vis-à-vis des jeunes et à augmenter leurs compétences, tout en s’employant à adapter les offres et les demandes d’emploi dans le secteur.

Le secteur est déjà conscient des problèmes posés. Les entreprises du secteur proposent déjà 6 à 7 jours de formation par collaborateur. Ce chiffre masque cependant les cycles de formation « forcés » comme le renouvellement de certification sur certains produits à la sortie de nouvelles versions. Au total, ce sont 77 M? qui ont été consacrés par les entreprises du secteur à la formation professionnelle continue, en augmentation de 10 % par rapport à l’année précédente. Sur l’année prochaine, ce chiffre devrait encore croître de 11 %.

Cette formation s’est effectuée à 44 % dans le cadre de contrats de professionnalisation. Si les salaires n’ont pas augmenté significativement des signes comme l’augmentation du turn-over et la raréfaction de certaines compétences, ne peuvent avoir qu’une conséquence évidente sur les salaires dans les trimestres à venir.

Certaines fonctions sont de plus en train d’évoluer rapidement. Pour anticiper ces changements, le Syntec Informatique a lancé des études prospectives sur l’évolution des métiers des développeurs et des métiers dans le secteur du conseil en technologie.

Brevet informatique

Le secteur a donc besoin d’attirer vers lui de nouveaux talents pour continuer à croître. Le renforcement de l’attractivité est donc le deuxième volet de l’action du Syntec Informatique dans les mois à venir. Ces actions suivent différents axes. Vers les grandes écoles et l’enseignement, le Syntec a lancé une association, Pasc@line, et le B2i, une sorte de petit brevet informatique pour les collèges et les écoles.

Vers le public féminin, le syndicat a mis en place un prix pour distinguer des femmes qui réussissent dans l’industrie des logiciels et des services informatiques, le prix Excellencia. Vers les publics défavorisés, l’opération « Nos quartiers ont des talents » permet d’élargir le recrutement vers des publics différents, principalement en Seine-Saint-Denis.

Le dernier axe concerne le public des demandeurs d’emploi avec la formalisation d’une collaboration avec l’Agence nationale pour l’emploi et le GARP de la région Île-de-France. Cette formalisation passe par la signature d’une convention qui doit intervenir à compter du 20 décembre. Cette convention devrait tout d’abord concerner les ingénieurs commerciaux et les ingénieurs mainframe. Dans cette convention, la Syntec Informatique « s’engage à faciliter le retour à l’emploi en adaptant et en améliorant l’adéquation entre offre de services et les emplois proposés ».

Dans le principe, des offres d’emplois émanent des entreprises adhérentes au Syntec Informatique, un allocataire peut répondre à cette offre. Si son profil ne correspond pas complètement, le GARP lui propose la formation adéquate pour répondre à ce poste lors de l’embauche par la société adhérente. Actuellement, cette convention se cantonne à la région Île-de-France. Le dispositif devrait être rapidement étendu à d’autres régions pour atteindre à terme un niveau national.


FORMATION

Les stages toujours efficaces

Dans son bilan sur les recrutements de sa promotion 2006, l’ISEN (Institut supérieur de l’électronique et du numérique) a connu un très bon taux de placement. Près de 85 % des étudiants se sont placés à la sortie ou avant la sortie de l’école. Le premier vivier pour des étudiants reste celui des services informatiques. Vient ensuite le secteur du conseil.
Tendance notable de cette promotion, une part des étudiants s’est inscrite dans un autre établissement supérieur pour obtenir une double compétence.
Autre enseignement intéressant, les stages restent d’importants pourvoyeurs d’embauches à condition de tenir dans un cadre assez strict comme ceux proposés par l’école. Ceux-ci culminent à 40 semaines de stages durant le temps du cursus dans l’école, dont un stage long de six mois en dernière année. Ceux-ci peuvent se réaliser soit en France, soit à l’étranger et dans près de 150 entreprises différentes. Les embauches à la suite des stages ne se concrétisent pas forcément dans l’entreprise qui a accueilli le stagiaire. Ce point démontre que les stages, bien qu’ils soient souvent décriés, restent une étape fondamentale pour entrer dans la vie active à la sortie des écoles.

Supinfo ouvre un nouveau centre de compétences à Paris

SUPINFO vient d’ouvrir un nouveau centre « SUPINFO Training Center » dans le 9e arrondissement de Paris, au 28 rue de la Victoire. Ce centre délivre des formations allant de la bureautique à l’expertise informatique qui permettent à un large public d’acquérir des compétences certifiées sur des fonctions très variées : assistant bureautique, spécialistes système, réseau, programmation ou base de données. Ce nouveau centre permet aussi une préparation aux certifications constructeurs Cisco, Sun Microsystems, Microsoft, Apple, Linux, Oracle et Zend. Ces certifications sont mises en place par les constructeurs informatiques afin de garantir un haut niveau de maîtrise de la personne certifiée sur une technologie.
Dans le prochain semestre, neuf autres centres vont ouvrir en France avec le même équipement technologique afin d’offrir des formations certifiantes de haut niveau.
http://www.supinfo-training.com/
supinfo.jpg
Sommaire
Réduire
MAGAZINE

• Teched et IT Forums : l’offensive de Microsoft sur les Data Centers

• Réseaux sociaux : les Meetic de la vie professionnelle

DOSSIER

• BUREAU MOBILE, les nouvelles applications


SERVEURS & SYSTÈMES

• Tester, consolider, optimiser : la virtualisation à tout faire !

• Administration de SI : l’Out of Band à la baguette !


LOGICIELS & APPLICATIONS

• Logiciels libres : comment les qualifier pour l’entreprise ?

• DotNet 2.0 : enfin un treeview virtuel en code managé


POSTE DE TRAVAIL

• Bonnes Feuilles : boostez votre Palm !


ITINÉRAIRES

• Métiers : 10 000 emplois nets créés dans les logiciels et services en 2006

• Formation : les stages toujours efficaces

• Livres : les très riches heures de l’administrateur système
Administration SI
Réduire
L’Out of Band à la baguette !
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Dès le début de l’informatique, les administrateurs de systèmes ont réclamé des outils pour « monitorer » et contrôler le fonctionnement des équipements dont ils avaient la charge. Ces outils propriétaires et internes aux machines avaient cependant des défauts et ne permettaient pas de répondre à tous les cas de figure lors de défaillances. Aujourd’hui, ces problèmes sont résolus avec une administration externe à la machine. Les possibilités des outils s’étoffent encore pour autoriser une administration encore plus large.

console-avocent14100_Copie6.gif

Les outils d’administration de systèmes sont indispensables pour optimiser et « monitorer » un parc machines. Celui-ci devient de plus en plus important à la fois en nombre et en termes d’outil stratégique pour l’activité de l’entreprise. Même si les services informatiques sont en période de consolidation du nombre de machines, en réduisant les serveurs physiques par des machines plus puissantes ou virtuelles, leur nombre ne décroît pas vraiment.


Un admin pour 15 serveurs

En effet, si les entreprises disposent de moins de serveurs physiques, elles augmentent allègrement le nombre de serveurs virtuels qui doivent être eux aussi monitorés comme tous les autres serveurs. Leur quantité demande un nombre conséquent d’administrateurs, d’où des coûts qui deviennent rapidement sans aucun rapport avec les budgets des entreprises. On compte ainsi un administrateur pour un maximum de 15 serveurs Windows. La palme revient aux environnements d’IBM sur OS/400 qui ne demandent parfois qu’un administrateur à temps partiel.
Des chiffres communément admis par les administrateurs de systèmes montrent que 89 % des coûts informatiques concernent l’exploitation pure (intervention sur site, inventaire manuel…). En ces temps de réduction de coûts, il est évident que ce poste devait être revu et appareillé avec des outils apportant plus de productivité.


Les buts des outils de monitoring de système

Le premier usage des outils matériels ou logiciels de monitoring de systèmes est d’éviter les indisponibilités. Par les alertes qu’ils remontent, ils préviennent d’un dysfonctionnement en cours ou à venir de la machine. Depuis ces alertes, ils permettent aussi d’optimiser des machines en fonctionnement en apportant des informations sur des éléments matériels et logiciels. En optimisant les machines, ils aident à diminuer le coût total de possession des machines et allongent leur durée de vie. En cas d’incident, ils donnent les éléments pour fournir un diagnostic à chaud et rapide suite à un incident sur des éléments objectifs, comme un taux d’utilisation CPU ou d’un composant qui ne répond pas.


Et pour les PC ?
Si les PC sont aussi des matériels, les moyens pour les administrer sont un peu différents de ceux mis en place pour les serveurs, tout du moins dans leurs dernières déclinaisons. La solution la plus récente chez Intel s’inspire d’AMT 2.0 et s’inscrit dans le processeur VPro du fondeur. Pratiquement, le processeur agit à partir d’un serveur SMS de Microsoft comme un serveur de management pour remonter les informations à partir du PC en utilisant la mémoire non volatile présente sur la carte mère. Par ce moyen, lorsqu’une alimentation électrique est présente, il est possible de prendre la main sur le PC et de pratiquer des opérations de maintenance comme de remonter un disque ou de faire parvenir une DLL manquante nécessaire au démarrage. Sur le poste, un agent est installé. Il prend la forme d’une plate-forme virtuelle de Windows CE qui travaille en tâche de fond sur le poste. Cette partition collecte et remonte les informations voulues à la fréquence désirée. Il existe des interfaces avec des outils comme ceux d’Altiris, de Landesk Software pour la gestion de parc. Dédié aux professionnels de la maintenance des parcs informatiques, le VPro, qui sera bientôt disponible pour les ordinateurs portables, permet de simplifier les opérations sur les machines en permettant une automatisation des opérations sur les PC. Contrairement à ce que l’on pourrait penser, ce processeur vise plutôt les entreprises petites et moyennes qui ont besoin d’outils pratiques pour ces opérations et non de véritables grands comptes qui disposent déjà d’outils sophistiqués.



Sensibles à ces aspects, les constructeurs ont très tôt proposé des matériels ou des logiciels pour remplir ces fonctions. Ces systèmes sont propres à chaque constructeur.
Ainsi, IBM utilise des cartes BMC (Baseboard Module Controller), outil commun à tous les serveurs, mais aussi des cartes RSA (Remote Supervisor Adapter), MPCLI, un langage en ligne de commande qui propose un script pour configurer automatiquement le module d’administration, et Director, un outil de gestion centralisé pour administrer plusieurs machines. Chez HP, il existe aussi différents outils comme ILO (Integrated Lights-out), solution matérielle et logicielle pour la gestion des serveurs Proliant et Insight Manager, l’outil provenant de chez Compaq. Chez Dell, vous aurez à disposition DRAC (Dell Remote Access Card) et Open Manage.


Deux familles d’outils : Inband ou Out of band

Pour utiliser ces fonctions de monitoring, il existe deux possibilités, les outils dits Inband et les outils Out of Band. Les outils Inband, les plus anciens, utilisent les canaux utilisés par les données, habituellement Ethernet, pour remonter les informations concernant les matériels. Les cartes BMC en font partie et sont ainsi présentes dans tous les matériels.
 
test-sur-des-cartes-RS14215.gifDes cartes RSA en test sur un banc de l’université de Cornell aux États-Unis.
SNMP (Simple Network Management Protocol) est une autre alternative pour récupérer les informations envoyées par des agents présents sur l’appareil qu’il soit serveur ou réseau.
À l’inverse, les outils Out of Band utilisent un canal dédié différent. L’utilisation la plus classique est la connexion par le port série de la console de l’appareil. Ces outils se développent du fait des limitations des outils Inband. Ces derniers connaissent des problèmes de vulnérabilité lors d’incidents du matériel. Ainsi, lorsque le matériel est éteint ou arrêté suite à un incident, il devient impossible de récupérer les informations nécessaires au diagnostic de l’incident. Il est alors nécessaire d’envoyer quelqu’un sur la machine pour réaliser l’intervention de maintenance. Outre la mobilisation, ce déplacement a un coût et allonge le temps de résolution de l’incident.

Autre point critique de ces outils, ils sont propres à chaque constructeur. Emmanuel Bernard, ingénieur avant-vente chez Avocent, un constructeur de solutions de monitoring à distance de matériel, cite un exemple : « Avec notre outils, un client a consolidé sept outils différents qui mobilisaient près de 70 personnes. » L’utilisation de ces outils implique souvent la création de groupes dédiés par famille de serveurs habitués à leurs seuls outils et ne s’occupant que de certains serveurs ou équipements réseaux. On arrive bien souvent à une situation qui se résume par l’adage « ma main gauche ne sait pas ce que fait ma main droite ».

Autre point à ne pas négliger, ces équipements Inband représentent parfois un surcoût lors de l’achat de la machine et demandent à être installés correctement. Ainsi, les cartes doivent avoir des drivers installés pour fonctionner correctement. Ce point est souvent oublié car les constructeurs insistent peu sur ce fait qui augmente le nombre de demandes vers les supports des fabricants. Il faut ajouter que certains de ces équipements ne reconnaissent pas les serveurs virtuels installés sur la machine.

Un des désavantages des outils Inband, provient d’une sécurisation dépendante de la sécurisation du matériel lui-même. Utilisant le flux habituel de données, si celui-ci n’est pas protégé, il est possible de créer des incidents sur une machine en utilisant ce flux.
Malgré ces multiples inconvénients, ces systèmes continuent de perdurer. Emmanuel Bernard le souligne : « Chez la plupart des prospects que nous rencontrons, ces outils sont présents et même s’ils pensent migrer vers des outils OOB (Out of Band), ils font de la résistance. C’est surtout notable dans les environnements Windows de tailles conséquentes. »


L’OOB comme remède

Devant ces différents problèmes, les constructeurs se sont attelés à fournir des outils permettant d’accéder aux machines par des canaux différents que ceux empruntés par les données pour donner la possibilité de prendre la main à distance, et ce, même dans les cas où la machine est éteinte ou en panne.
Pour y parvenir, les outils OOB utilisent différents moyens ou chemins. Si le plus classique est le port série de la console de l’équipement, des solutions comme celles d’Avocent proposent un accès déporté par un ensemble KVM (Keyboard,Video, Mouse). ILO (Integrated Light-Out) est un autre moyen d’accès se plaçant sur un processeur spécifique. D’autres outils utilisent VNC (Virtual Network Computing) ou RDP (Remote Desktop control). VNC est un classique dans les environnements Linux mais se révèle souvent moins réactif que RDP, le protocole de Microsoft.
En fait, ces différents chemins permettent de trouver une partie de mémoire permettant le boot à distance ou la prise en main. Il suffit, même si la machine est arrêtée, d’avoir une alimentation électrique en fonctionnement et de rejoindre un élément de mémoire. Chez Avocent, l’ajout du Virtual Media permet de transférer à distance des données locales vers, ou à partir, des serveurs distants, afin d’effectuer une grande variété d’opérations, et ce, malgré l’hétérogénéité des plates-formes sur lesquelles ils travaillent et quel que soit leur système d’exploitation.
Virtual Media est une simulation de périphérique média remplissant des fonctions identiques à celles d’un périphérique de stockage de masse (disque dur, lecteur de CD, clé USB…), sans être physiquement connecté. Cette fonctionnalité s’adresse notamment aux entreprises qui cherchent à contrôler l’accès physique à leurs centres de données, pour des raisons de sécurité. Emmanuel Bernard explique : « Avec cette fonction nous avons le pouvoir d’être là… même quand nous n’y sommes pas ! Avec cet outil il est possible de remonter un disque à partir d’un boot avec une clé USB 2.0 qui contient une image ISO d’un disque. » Par le Virtual Media ou des fonctions analogues chez d’autres constructeurs de consoles d’administration, l’administrateur n’est pas rivé à sa console. Il lui est possible de répondre à un incident en situation de mobilité.


La DTMF monte au filet avec SMASH
La DTMF (Distributed Management Task force) est une organisation dont le but est la standardisation des outils d’administration et de monitoring. Son cheval de bataille principal se nomme SMASH (Systems Management Architecture for Server Hardware). Kesako ? Une suite de spécifications de sémantiques architecturales, de protocoles standard et de profils pour unifier l’administration des centres de données. Cette spécification SMASH CLP (command Line Protocol) doit fournir une administration simple et intuitive de serveurs hétérogènes indépendamment de l’état de la machine ou de l’OS, de la typologie du système serveur et de la méthode d’accès. Elle doit faciliter l’administration locale et distante des ressources machines dans les environnements OOB et OOS (Out of Services). Encore émergente, cette spécification s’accompagne d’autres efforts de standardisation par le même organisme : WBEM (Web Based entreprise Management), CIM (Common Information Model), ASF (Alert Standard Format), et SMBIOS (System Management Bios). Comme tout effort de standardisation, celui-ci pourrait mettre un temps certain à déboucher concrètement sur le marché. Mais il faut saluer l’initiative !



Ces outils permettent une véritable administration à distance. Il est ainsi possible avec les outils d’Avocent de prendre en main un data center. L’avantage de ces consoles OOB est d’autoriser le monitoring de plusieurs machines à la fois. Alors qu’avec l’Inband, à une carte correspond une machine. De la même manière, il est désormais possible d’administrer des racks entiers de serveurs en lames et d’agir sur les différents serveurs présents dans ces racks.

La dernière innovation est d’autoriser par ces moyens OOB une certaine universalité vers les différents éléments Inband des constructeurs apportant la possibilité d’une administration à partir d’une console unique vers différentes familles de serveurs et sous des OS différents. Emmanuel Bernard ajoute : « Cela a été un pas de géant d’offrir cette universalité d’accès. La console se comporte comme un chef d’orchestre et propose d’intégrer les services processors, les outils propriétaires et Inband. Tout ce qui est générique peut transiter par le port Telnet avec tout dedans dont l’interface puis par le navigateur quel qu’il soit – IE, Mozilla, Firefox –, on pousse un applet pour délivrer un package MSI. Nativement DS View, notre console s’interface avec les différentes plates-formes sans surcoût par un lien http embarqué comme un proxy vers les différentes cartes et collecte les infos de manière intuitive par son interface graphique. »
Par ces différents moyens, il devient possible d’éviter des déplacements lors des incidents et d’augmenter la réactivité lors d’un incident. De plus, un administrateur n’est plus dédié à une famille de serveurs, mais peut monitorer les différentes machines dans un data center. Moins de personnes, ou de déplacements sur site et dans la salle, plus grande réactivité en cas d’incidents : les réductions de coûts deviennent alors évidentes.


Une sécurisation des accès et des actions sur les serveurs distants

Utilisant d’autres moyens d’accès, les solutions OOB nécessitent une sécurisation adéquate pour éviter des prises en main malveillantes sur les serveurs d’un data center, alors que les outils Inband font transiter les informations en clair. Les accès à partir d’une console OOB se réalisent par un contrôle de log à l’intérieur d’un annuaire de l’entreprise. Il est aussi possible de mixer ou de fédérer les appels sur différents annuaires. Ainsi, les consoles proposent la possibilité d’une authentification forte à partir d’Activdirectory, de NDS, Radius et même de les combiner avec la solution SecurID de RSA. Il est aussi possible de mettre en place une politique de SSO (Single Sign On) pour les consoles. Emmanuel Bernard ajoute : « Depuis la version 3 de notre outil, prendre la main à distance permet de se connecter à partir d’un navigateur Internet. Vous vous connectez en IP HTTPS SSL 128 bits pour accéder à une liste de serveurs sur lesquels vous avez des droits. »


Une évolution positive vers l’OOB

Si les outils de monitoring ont été de tous temps les parents pauvres de l’exploitation informatique, leur image est en train de changer. S’ils sont plutôt orientés vers les grands comptes et les entreprises grandes consommatrices de ressources en matériels ou réseaux, les possibilités apportées par l’OOB intéressent les outsourceurs et les prestataires de services informatiques qui y trouvent des éléments de productivité pour les tâches qui leurs sont confiées. Emmanuel Bernard le constate : « Dans notre cycle de vente, les interlocuteurs changent. Auparavant, nous étions en contact avec les responsables de la production ou de l’exploitation. Aujourd’hui, nous rencontrons plus de financiers. Nos outils entrent dans les interrogations lors de la construction d’une salle ou lorsqu’il est discuté une possibilité d’externalisation. La question se pose aussi lors de déménagements de salles. Allons-nous reprendre les outils, les cartes ou rationaliser cela lors de la concentration du nombre de salles… Cela nous crée des opportunités et l’OOB semble de plus en plus nécessaire. »
Livres
Réduire
Les très riches heures de l’administrateur système

11957.gifLe métier d’administrateur de systèmes est un des plus exigeants en termes de disponibilité… Et de diplomatie ! Dans cet ouvrage, Thomas Limoncelli explique comment bien gérer son temps lorsqu’on est en charge de l’informatique d’une entreprise. La principale difficulté provient du traitement des urgences en parallèle de projets de longue haleine. Pour cela, seule une optimisation rigoureuse du temps permet de s’acquitter sereinement de cette mission.
Avec une expérience de plus de quinze ans comme administrateur système, l’auteur maîtrise parfaitement les arcanes du métier et s’est fait une spécialité de la gestion du temps, sujet sur lequel il anime des ateliers dans de très grandes entreprises. Il avait déjà sévi dans le domaine avec « The practice of system and network administration », désormais un classique de l’administration de systèmes.
Tiré de l’expérience de l’auteur, l’ouvrage reste très pratique et n’hésite pas à prendre des positions tranchées sur certains points, voire à aller contre certaines idées reçues sur les rapports à entretenir avec les utilisateurs dans l’entreprise. Les exemples restent concrets. À la lecture, on découvre en fait que l’auteur propose une méthode globale pour la gestion du temps et des tâches de l’administrateur système. L’ouvrage n’est pas parole d’évangile et devra sur certains points être adapté au contexte de l’entreprise dans laquelle l’administrateur système travaille, les pratiques et méthodes proposées dressent une grille intéressante de gestion de la tâche d’administrateur.
Si le livre cible donc en particulier les administrateurs de systèmes, il conviendra aussi à toutes les personnes pour gérer à la fois des urgences et des projets plus longs. Pour tous les informaticiens en fait…

Admin’sys gérer son temps
Auteurs : Thomas Limoncelli
Éditeur : Éditions Eyrolles
257 pages, 22 euros env.



Galerie de portraits

bd2.gifOn peut tous mettre des noms de proches sur la galerie de portraits que nous propose l’album « Les informaticiens », des éditions Bamboo. Entre le petit génie, type Géo Trouvetou qui vous met en vrac tout le système après une innovation géniale qui le rendra aussi fameux que Bill Gates, et le gros neuneu qui travaille son ordi à la masse d’arme du XIVe siècle… l’album pourrait bien rappeler le bureau à plus d’un !

Certains gags montrent toutefois une critique toute en finesse des travers des informaticiens, mais aussi de la vision portée par la société sur ce métier. Un de ces portraits est parfaitement éclairant. Dans une prison, les bandes de voyous se rassemblent auprès de leur caïd, sauf un seul, le plus dangereux : « Il paraît qu’il a chargé des films sur Internet » ! Ce petit génie se trouve embringué à donner des cours d’informatiques aux autres détenus qui lui font chercher les plans de la prison sur Internet pour se faire la belle. Après cet exploit, il se retrouve embarqué manu militari dans l’évasion : « On sait jamais ; on peut pas faire confiance aux infos sur Internet. »

Bref, entre Gaston Lagaffe et les « femmes en blanc », les informaticiens nous font passer un bon petit moment. Pour montrer qu’on peut décrocher de son écran de temps en temps. En plus, vous trouverez sur le site des éditions Bamboo – bamboo.fr – un petit jeu sympa pour vous défoulez sur votre PC, qui l’a bien mérité…

Les informaticiens : Droit au bug
Scénario : Frédéric Brémaud et Matthieu Reynès
Dessins : Arnaud Toulon
Éditeur : collection Humour Job, Éditions Bamboo
album cartonné, 48 pages, 10 euros env.
Bonnes Feuilles
Réduire
Boostez votre Palm !

Au moment où Palm abandonne son OS maison pour adopter Linux, Fabrice Neumann et Jean-Christophe Vignes font paraître chez O’Reilly un livre réjouissant par ses exemples de trucs pour allonger et étendre la vie et les fonctions de votre Palm. Nous en avons choisi deux extraits qui peuvent être des plus utiles pour des informaticiens ou des fanas de la communication mobile !

Palm200.jpg« Palm à 200 %, 60 trucs, secrets et techniques », par François Neumann et Jean-Christophe Vignes. O’Reilly, 277 pages, 29 euros.

Profitez de vos mails quel que soit le réseau

Relever ses mails en tout lieu est très  tentant . C’est même un des principaux avantages du Palm qui propose plusieurs solutions pour se connecter à Internet. Cela dit, si vous utilisez le GPRS, récupérer de gros messages peut avoir un certain impact sur votre facture de téléphone, c’est pourquoi il est utile de créer différents « profils ».

fig01.jpg
Figure 1. VersaMail est fourni avec tous les Palm récents.
fig02.jpg
Figure 2. Il faut configurer le serveur SMTP correspondant à votre fournisseur d’accès.
fig03.jpg
Figure 3. Dans VersaMail, on choisit ce qu’on veut relever… ou pas !


Posséder un Palm Wi-Fi et Bluetooth, c’est pouvoir se connecter de – presque – n’importe où : si vous avez un hotspot Wi-Fi à proximité, vous profiterez du haut débit, parfois même gratuitement. Sinon, votre téléphone mobile GPRS fera un excellent modem de poche… mais coûteux ! En effet, avec le GPRS, ce n’est pas le temps que vous passez en ligne qui compte, mais le poids des données que vous échangez sur Internet : un mail simple ne pèse que quelques kilo-octets (ko), mais pour peu qu’il contienne une pièce jointe, cela grimpe vite !
Heureusement, Versamail, le logiciel de mail fourni avec le Palm, vous permet de créer plusieurs profils. Par exemple, vous pouvez en créer un qui téléchargera vos messages dans leur intégralité lorsque vous êtes connecté via le Wi-Fi, et un autre qui se limitera aux noms et objets des mails quand vous êtes en GPRS.
Dans ce dernier cas, vous pourrez décider ensuite si le message est suffisamment important pour sacrifier un peu de votre forfait GPRS et, donc, le télécharger en entier. Dans tous les cas, pensez à laisser les messages sur le serveur lorsque vous les consulter du Palm. Vous pourrez ainsi toujours les récupérer de votre ordinateur, de chez vous. Cette méthode a un autre avantage puisqu’elle vous permet de spécifier plusieurs serveurs « SMTP », utilisés pour l’envoi de vos mails. Si le serveur de réception (« POP ») ne change pas quelle que soit la connexion, le SMTP est tributaire de celle-ci : si vous êtes connecté en GPRS vous utiliserez le SMTP de votre opérateur mobile, en Wi-Fi celui du fournisseur d’accès… sinon les mails ne peuvent pas partir ! (Figure 1)

Pour profiter de ce hack, il suffit de créer de nouveaux comptes avec VersaMail. L’élément « Paramètres du comptes » du menu « Comptes » lance un assistant bien conçu, c’est donc assez facile : il faut d’abord choisir un nom pour le compte, explicite comme « Compte professionnel (GPRS) » ou « Compte professionnel (Wi-Fi) », qui vous permettra plus tard de passer de l’un à l’autre d’un simple clic. Puis, il faut rentrer les informations de connexion fournies par votre fournisseur d’accès. Pour le fameux SMTP, il faudra sans doute le demander à votre opérateur mobile pour le GPRS, et au propriétaire du Hotspot pour le Wi-Fi (Figure 2).

Enfin, la page suivante permet de déterminer ce qui sera relevé et quand. Cette dernière information est importante car des connexions trop fréquentes ne sont pas seulement coûteuses… Elles consomment aussi beaucoup d’énergie et peuvent vider votre batterie à toute vitesse ! (Figure 3)
Note : ce hack s’appuie sur VersaMail car c’est l’application fournie en standard avec le Palm. Mais vous pouvez bien sûr reprendre ce principe de profils différents pour un seul compte avec d’autres logiciels de messagerie comme iambic Mail ou Chatter, que nous allons voir… dans le hack suivant.

« Vous avez du courrier ! »
On peut être averti d’un mail par un son ou, plus discret, par une vibration… Mais il est aussi possible d’utiliser ses MP3 favoris grâce à l’utilitaire KoolSounds. Il suffit de sélectionner « Chatter Email » ou « Versamail » comme application, choisir le fichier MP3 correspondant et l’alerte de nouveau message est remplacée par votre chanson préférée ! (www.toysoft.ca)






Quand votre Palm se prend pour un Blackberry

fig04.jpg
Figure 4. Versamail peut être configuré pour « livrer le courrier » automatiquement.
fig05.jpg
Figure 5. Profitez de la version d’essai de Chatter Email, c’est probablement le plus puissant des logiciels de messagerie pour Palm.
fig06.jpg
Figure 6. La configuration de base de Chatter Email n’est pas plus compliquée qu’avec n’importe quel autre logiciel de messagerie.


Que vous soyez très sollicité ou simplement anxieux, il peut être vite frustrant d’aller chercher ses mails « à la main » toutes les cinq minutes. Avec ce hack, ce sont vos mails qui viennent à vous… en temps réel. Et comme vous en êtes averti automatiquement, plus la peine d’y penser !
Avoir ses mails qui arrivent directement en poche, sans rien avoir à faire… C’est la promesse et la raison du succès des fameux BlackBerry. N’ayez aucun regret, notre hack vous permet de profiter du même confort sans changer de machine. Ce seront plutôt les utilisateurs de BlackBerry qui jalouseront la plus grande logithèque disponible sur Palm et ses capacités de synchronisation si avancées.

Relever ses mails automatiquement n’est pas, en soi, une prouesse : il est probable que votre PC de bureau le fasse sans que vous ne vous en aperceviez. Par défaut, et pour économiser batterie et forfait, le Palm vous oblige pourtant à le faire manuellement, si vous ne le paramétrez pas autrement. Pour cela, nous allons nous repencher sur Versamail et son panneau de configuration.
La page « Sync. Autom. » des Préférences de l’application regroupe les réglages concernant la relève du courrier. On peut choisir de ne le faire qu’à certaines heures ou dans un intervalle de plusieurs minutes. À moins d’être un grand anxieux, je ne vous conseille pas de choisir un laps de temps de moins de 20 minutes : votre batterie n’y résisterait sans doute pas ! (Figure 4)
Cependant, configuré ainsi, Versamail ne peut rivaliser complètement avec un BlackBerry. Le gros avantage de ce dernier reste qu’on n’a pas besoin d’aller « chercher » les mails, et donc de se connecter « dans le vide » en perdant du temps, du forfait GPRS et de l’autonomie. Ils arrivent tous seuls directement, en mode Push. Si vous avez la chance de posséder un Treo, vous pouvez retrouver ce confort avec Chatter Email.
Chatter Email (www.chatteremail.com) fonctionne grâce à un protocole de courrier particulier appelé « IMAP ». Censé remplacer le « POP » que tout le monde connaît, il n’a jamais vraiment décollé. Chatter s’appuie en fait sur une fonction méconnue d’IMAP appelée « idle » ou « attente ». En pratique, cela permet d’être connecté en permanence sur le serveur et de ne réagir qu’à l’arrivée d’un nouveau message. Le forfait GPRS ne souffre pas (trop) puisqu’aucune donnée ne transite quand on ne reçoit pas de mail, et surtout les mails arrivent en temps réel au lieu de devoir attendre une période de vérification donnée… Fini le stress, Chatter travaille pour vous ! (Figure 5)

Seul inconvénient de Chatter, tous les fournisseurs d’accès ne supportent pas le mode IMAP, et ceux qui le font ne supportent pas tous la fonction « Idle ». Vous pouvez essayer avec votre boîte aux lettres habituelle, Chatter vérifiera si elle est compatible lorsque vous aurez fini d’entrer les informations de configuration du compte. Dans le cas contraire, il suffit de configurer votre programme de courrier – sur votre ordinateur – pour qu’il renvoie automatiquement vos mails vers un autre compte compatible, par exemple vers les serveurs de LaPoste.net, que j’utilise moi-même tous les jours. (Figure 6)

Les préférences de Chatter s’articulent sur trois onglets qui permettent d’affiner la manière dont vos e-mails sont traités sur le Palm. Aussi bien qu’un BlackBerry !

Laissez votre Palm prendre à distance le contrôle de votre PC

Vous avez peut-être déjà eu besoin ou envie d’accéder à votre PC de votre canapé avec votre Palm. Et si c’était possible de l’autre bout du monde ? Vous pourriez ainsi poster des messages sur votre blog en utilisant votre interface habituelle. Voici comment faire avec VNC.

Accéder à distance à votre ordinateur peut se révéler très pratique. Vous pouvez ainsi jeter un œil sur les journaux de connexion de votre serveur, relancer des services après plantage ou même poster de nouveaux messages sur votre blog, d’une manière différente de celle décrite précédemment. Si vous avez un réseau local chez vous, il est possible de configurer tous les ordinateurs qui y sont connectés pour qu’ils soient accessibles à distance.
VNC (Virtual Network Computing) est une application Open Source spécifiquement développée pour permettre la prise de contrôle d’une machine par une autre au travers d’un réseau. On en doit les premières versions aux ingénieurs des Bell Labs. VNC est aussi un outil de travail collaboratif. Plusieurs personnes (les clients) peuvent se connecter au même serveur. Chaque spectateur dispose de son propre pointeur de souris et pourra l’utiliser pour montrer un endroit particulier sur l’écran de la machine distante. Bien sûr, à l’inverse, chaque écran client affiche tous les autres pointeurs. Chacun d’eux étant affichés de différentes couleurs pour les différencier.
La partie serveur existe en version Windows, Mac et Linux. Elles sont toutes téléchargeables à partir du principal site dédié à VNC (www.realvnc.com), sur lequel vous trouverez également de nombreuses informations. Mais il existe d’autres versions de VNC. Pour les ordinateurs sous Windows et Linux, vous pouvez vous tourner vers TightVNC (www.tightvnc.com). De son côté, UltraVNC (www.ultravnc.com) ne s’adresse qu’aux machines Windows mais autorise le changement de résolution d’écran au niveau du serveur, une option indispensable pour l’accès depuis un Palm (lire plus loin). Pour les Mac, vous aurez besoin d’installer OSXvnc (www.redstonesoftware.com/vnc.html), car le module VNC livré avec les Mac ne fonctionne malheureusement pas avec PalmVNC. Vous l’avez compris, c’est ce dernier qui nous servira de client, on dit aussi viewer en anglais, pour accéder au serveur, c’est-à-dire à la machine dont vous voulez prendre le contrôle.
Vous pouvez le télécharger sur http://palmvnc2.free.fr. Un lien vous permet de télécharger UltraVNC en même temps que PalmVNC.

Les adresses IP
Tous les ordinateurs connectés à Internet disposent d’une adresse IP. Elle sert à identifier de manière unique n’importe quelle machine connectée. C’est un rouage indispensable pour assurer que les données demandées par un machine parviennent bien à cette seule machine. Une adresse IP est un groupe de 4 nombres de 3 chiffres, chaque groupe pouvant prendre une valeur de 0 à 255. Si cette adresse est statique, cela signifie qu’elle reste la même à chaque fois que votre modem se connecte. Pour obtenir une adresse statique, ou fixe, il suffit en général de la demander à votre fournisseur d’accès. Il n’est pas rare, cependant, que ce service soit payant. Le cas le plus classique, pour ce qui est des abonnements internet pour les particuliers tout du moins, est l’adresse IP dynamique. Dans ce cas, votre fournisseur d’accès vous assigne une adresse, par exemple 67.223.123.212, pour un temps donné. Vous ne savez pas d’un jour à l’autre si vous obtiendrez la même en vous connectant. Or, comme cette adresse IP est indispensable pour vous connecter à votre machine depuis l’extérieur, le fait qu’elle puisse changer à tout moment est plutôt gênant. D’où l’intérêt de recourir à un service de publication d’adresse, souvent gratuit. Le principe est simple. Un petit logiciel tourne en permanence sur votre machine et détecte automatiquement le changement d’IP. Il en informe alors le serveur du prestataire qui met à jour sa table de liens de votre adresse IP vers votre adresse personnelle, du type mon_ordi.nom_domaine.com. Ainsi, il vous suffit de vous souvenir de cette adresse pour toujours accéder à votre machine. De nombreux prestataires proposent ce genre de service, tels DynDNS (www.dyndns.fr), Dynu (www.dynu.com), EuroDNS (www.eurodns. com) ou encore Hébergement Dynamique (http://hebergement-dynamique. nfrance.com).


Note : Si vous êtes intéressé par les différents modes d’interaction à distance, allez donc faire un tour du côté de Pebbles Project (www.pebbles.hcii.cmu.edu). Vous y trouverez plusieurs applications de télécommande pour Palm. Par exemple, SlideShow Commander est spécialisé dans le contrôle à distance d’une présentation Powerpoint, via Bluetooth ou Wi-Fi. Si vous êtes sur Mac, allez donc voir Salling Clicker (www.salling.com/Clicker/mac), qui transformera votre Palm en une véritable télécommande multiusage qui pourra même être étendue à l’aide de quelques lignes d’AppleScript.


Configurez VNC sur votre ordinateur

fig07.jpg
Figure 7. Téléchargez le VNC qui vous convient. Si vous êtes sous Windows, ne cherchez pas plus loin que le lien qui vous est proposé par PalmVNC.
fig08.jpg
Figure 8. Configurez l’accès au serveur VNC sur votre ordinateur (ici UltraVNC).
fig09.jpg
Figure 9. Modifiez les réglages de port forwarding de votre routeur pour accéder à une machine en particulier de votre réseau local.


Pour pouvoir accéder à distance à votre ordinateur, vous devez connaître son adresse IP externe. Le cas le plus simple à gérer consiste à disposer d’une seule machine, directement connectée à Internet avec une adresse IP fixe. Dans ce cas, vous n’avez qu’à repérer cette adresse et à la noter pour pouvoir l’inscrire dans l’endroit ad hoc, au sein de l’interface de PalmVNC. Si vous avez une adresse IP dynamique, ou si votre machine est située derrière un routeur, la situation est un peu plus complexe. Peut-être va-t-il vous falloir envisager de recourir à un prestataire de service spécifique (voir encadré « Les adresses IP »). Pour résumer, un tel prestataire vous laisse choisir un nom au sein de son domaine. Votre PC est ensuite repéré par une adresse du type mon_ordi.nom_domaine.com. Si vous vous abonnez à ce genre de solution, prenez soin de noter cette adresse, elle sera utile pour la configuration de Palm VNC. (Figure 7)

Il ne vous reste plus maintenant qu’à télécharger et installer la version de VNC adéquate. Une fois l’installation terminée, configurez l’application. Vous devrez notamment choisir un mot de passe. Comme celui-ci sera le cerbère de votre accès à distance, choisissez-le avec soin, sinon vous risquez d’ouvrir votre machine à tous les pirates : mélangez les majuscules et les minuscules et insérez aussi des chiffres, voire des lettres accentuées ou des signes de ponctuation. Ensuite, faites confiance à votre mémoire pour vous en souvenir ou notez-le dans un endroit sûr, comme dans un gestionnaire de mots de passe sur votre Palm, par exemple. (Figure 8)

Sécurisez la connexion

Afin que la connexion fonctionne, il vous faudra ouvrir quelques ports au niveau de votre pare-feu. VNC utilise pour lui-même le port 5 900 par défaut. Si vous souhaitez prendre le contrôle d’une machine située dans un réseau local, il vous faudra également rediriger les requêtes reçues sur le port 5900 vers la bonne machine. Vous devrez, pour cela, accéder aux paramétrages de port forwarding de votre routeur. (Figure 9)

Par défaut, VNC envoie toutes ses données, y compris le mot de passe, sous forme de texte en clair. Pour plus de sécurité, vous pouvez utiliser SSH (un protocole capable de sécuriser certains types de connexion dont VNC). Rendez-vous sur www.openssh.org pour en savoir plus. Sachez toutefois que vous devrez également ouvrir le port 22 de votre pare-feu pour SSH. Cela dit, cela ne fonctionne qu’avec un client installé sur un ordinateur de bureau.

PalmVNC, pour sa part, peut utiliser un plug-in de chiffrement basé sur la norme RSA 40 bits. Mais si vous avez besoin d’une sécurité encore plus grande, vous pouvez aussi établir une connexion au travers d’un tunnel VPN.


Configurez l’accès VPN sur le Palm


fig10.jpg
Figure 10. Indiquez à Mergic VPN les identifiant et mot de passe nécessaires à la connexion au VPN configuré sur votre ordinateur.
fig11.jpg
Figure 11. Automatisez l’établissement du tunnel VPN au lancement de PalmVNC.


Mergic VPN est un client VPN pour Palm téléchargeable sur www.mergic.com. Pour configurer un tel accès, il est impératif d’avoir une adresse IP externe visible pour la machine à laquelle vous voulez accéder. Indiquez-la à Mergic VPN dans la zone « VPN Server Name or Address ». Il est possible de créer plusieurs comptes VPN permettant d’accéder à des machines différentes. Indiquez le nom du compte dans la zone Account. Notez bien que ce nom n’a pour but que de vous aider à distinguer vos différents comptes. Le véritable identifiant qui vous permet de vous connecter doit être indiqué dans la zone « User Name ». (Figure 10)
Vous pouvez également demander à Mergic VPN de se connecter automatiquement au serveur en même temps que vous lancez l’exécution de certaines applications. C’est exactement ce qu’il faut faire si vous souhaitez utiliser PalmVNC au travers d’un tunnel VNP. Pour cela, cliquez sur Auto Connect et, dans la fenêtre qui apparaît, cochez la case en face de PalmVNC. Validez par OK. (Figure 11)

Mettez en place un VPN avec Windows XP

Le système de Microsoft est capable en standard de créer une connexion VPN. Commencez par créer une nouvelle connexion réseau, via l’icône du même nom du Panneau de configuration. À la première étape de l’assistant, sélectionner l’option « Configurer une connexion avancée ». La boîte de dialogue suivante vous permet de choisir parmi plusieurs options de paramétrage. (Figure 12)
Laissez cochée l’option « Acceptée les connexions entrantes ». Vous devrez ensuite choisir la porte d’entrée par laquelle la connexion VPN doit passer, parmi tous les modes disponibles sur votre machine : modem, port Ethernet, liaison Wi-Fi, etc. Cliquez sur Suivant et indiquez ensuite que vous autorisez les connexions privées virtuelles. (Figure 13)

fig12.jpg
Figure 12. Choisissez de configurer une connexion avancée dans l’Assistant Nouvelle Connexion de Windows XP.
fig13.jpg
Figure 13. Dans l’Assistant, cochez l’option qui permet à votre PC d’accepter les connexions entrantes.
fig14.jpg
Figure 14. Ne donnez l’autorisation de connexion qu’à votre compte.


Vous devrez ensuite choisir les utilisateurs auxquels vous souhaitez donner l’autorisation de rentrer par connexion VPN. Comme il s’agit de vous, cochez la case en face de votre nom uniquement. (Figure 14)

La dernière étape consiste à indiquer un ou plusieurs types de services réseau autorisés. Sélectionnez au moins TCP/IP, les autres n’étant pas nécessaires dans le cas que nous développons ici.


Configurez – enfin ! – PalmVNC

Une fois que vous avez passé toutes les étapes décrites ci-dessus, vous êtes enfin prêt à configurer votre Palm pour accéder à votre PC. Il est donc grand temps d’installer le fichier palmVNC.prc que vous avez téléchargé quelques pages plus haut. Si vous avez opté pour le paquet PalmVNC/UltraVNC, proposé par le site palmvnc2.free.fr, ce fichier est déjà normalement installé sur votre Palm. Bien sûr, je prends comme hypothèse que vous avez déjà réussi à connecter votre Palm à Internet, via la connexion Wi-Fi, sinon tout ceci n’aurait aucun sens, n’est-ce pas ? Lancez l’application d’un coup de stylet sur son icône dans le menu principal du Palm. (Figure 15)
Créez une nouvelle connexion concernant votre ordinateur. Indiquez votre adresse IP externe. Si votre PC est situé derrière un routeur, pensez bien – j’insiste sur ce point… – à configurer le port forwarding sur ce dernier (voir plus haut). Indiquez également le mot de passe que vous avez déterminé au moment de la configuration du serveur VNC, afin d’éviter d’avoir à le faire à chaque connexion. Cliquez ensuite sur Advanced pour accéder aux réglages supplémentaires. (Figure 16)
Dans la page qui s’affiche, réglez la zone Scale à « 1:2 » ou « 1:3 », en fonction de la résolution de l’écran de votre ordinateur. Il faut en effet prévoir de réduire cette résolution pour qu’elle s’adapte à celle du Palm, bien moindre. Un serveur comme UltraVNC sait le faire automatiquement, avant d’envoyer les données vers le client. Par exemple, avec un redimensionnement à « 1:2 » vous pouvez visualiser sans problème un Bureau Windows en 640 x 480 sur un Palm en 320 x 320. (Figure 17)
Terminez de deux coups de stylets sur les boutons OK successifs. Cliquez sur Connect. En quelques secondes, vous allez voir apparaître le Bureau de votre PC sur l’écran du Palm. Vous pouvez maintenant piloter votre PC, à partir du Palm, comme si vous étiez assis devant. (Figure 18)

fig15.jpg
Figure 15. L’icône de PalmVNC dans le menu Applications du Palm.
fig16.jpg
Figure 16. Configurez l’accès de PalmVNC à votre machine devenue serveur VNC.
fig17.jpg
Figure 17. Pour adapter la résolution de votre ordinateur à celle de votre Palm, réglez le facteur de dimensionnement automatique.
fig18.jpg
Figure 18. L’écran du PC s’affiche sur le Palm. Vous pouvez manier les fenêtres avec le stylet, qui remplace alors la souris.
Si la résolution de l’écran du PC est vraiment élevée, vous n’arriverez pas à le voir en entier sur le Palm. Et mieux vaut ne pas dépasser le « 1:3 » comme taux de redimensionnement, au risque d’obtenir sur l’écran du Palm un affichage de caractères trop petits pour pouvoir les lire. Cela dit, ce n’est pas très grave, car PalmVNC a tout prévu : des barres de défilement s’affichent sur les bords en cas de besoin. Vous pourrez ainsi faire défiler l’écran Windows et accéder de cette manière à toutes les fenêtres et icônes de votre PC.
Virtualisation
Réduire
TESTER, CONSOLIDER, OPTIMISER
La virtualisation à tout faire !
Par Jose Diz - Copyright L'Informaticien, tous droits réservés

Utiliser enfin ses ressources à plus de 20 %, faire tourner des programmes sous des environnements délaissés mais indispensables, ou encore accéder à des architectures très robustes… La virtualisation serait-elle la panacée ?

evolution.gifL’hyperviseur se rapproche du matériel, et absorbe même les couches basses auparavant inscrites dans l’OS principal.


Multiplication des serveurs et applications, ouverture sur le Web, télétravail… Les responsables informatiques gèrent un parc applicatif et matériel d’une complexité croissante, sur lequel ils doivent rationaliser les processus et réduire les coûts.
Or, traditionnellement, un serveur exécute un unique système d’exploitation pour une ou plusieurs applications. Un système d’exploitation et une ou deux applications monopolisent donc les ressources d’un serveur (mémoire, disque dur, entrée/sortie, et processeurs), nécessitant maintenance et support. Un gâchis considérable, puisque les experts s’accordent à estimer que les serveurs et les ressources matérielles ainsi configurés ne sont utilisés qu’entre 10 % et 20 % de leur potentiel !


La panacée pour la consolidation et l’optimisation des ressources

Sun_JY_Pronier13400_Copier5.gifJean-Yves Pronier, directeur marketing chez Sun Microsystems.
C’est ici que la virtualisation prend tout son sens, en permettant de faire abstraction du matériel. En effet, l’objectif consiste à considérer que l’entreprise dispose d’un ensemble de serveurs avec des processeurs, de la mémoire, des entrées sorties… et que tous ces éléments peuvent être partagés et distribués à divers systèmes d’exploitation, même différents. Ainsi, les ressources matérielles sont mieux rentabilisées. Bref, peu importe ce qui se trouve en dessous, les applications tournent sans s’en préoccuper. Et, les équipes système peuvent optimiser l’allocation de ressources, qui plus est de manière dynamique !

Alors, chaque machine virtuelle dispose de son propre système d’exploitation, avec son (ou ses) processeur(s) virtuel(s), sa mémoire virtuelle, et ses périphériques virtuels (drivers). Chacun de ces éléments étant en fait bien reliés aux composants physiques.
En faisant tourner plusieurs systèmes d’exploitation sur une même machine, la virtualisation facilite la consolidation, et contribue fortement à la réduction des coûts.


Un sursis pour les vieilles applications

Les applications de l’entreprise reposent souvent sur des serveurs dédiés, car elles tournent sous des environnements qui ne peuvent pas s’exécuter sur les nouvelles machines. Et ces multiples systèmes augmentent la complexité du parc informatique et son coût. En faisant fonctionner d’anciens systèmes d’exploitation sur des machines virtuelles, la « migration » vers ces nouveaux serveurs, la virtualisation résout ce problème, et sans réécrire de code !

« Comment faire autrement pour exécuter des applications sous Windows NT4 sur des serveurs actuels alors que l’OS ne dispose pas des pilotes matériels ? Pour les systèmes d’exploitation qui ne sont plus supportés par leurs éditeurs, la virtualisation permet une totale indépendance vis-à-vis du matériel. En effet, le logiciel de virtualisation gère les liens entre les applications et les ressources physiques, en créant des interfaces virtuelles que ces applications considèrent comme les ressources réelles », souligne Sylvain Siou, directeur technique chez VMware. « La virtualisation a débuté avec les développeurs souhaitant des serveurs virtuels pour tester rapidement et sans risque leurs applications, dans un environnement isolé. En fin de test, il suffit d’arrêter la machine virtuelle. Autre avantage, il est possible de reproduire un environnement complet avec plusieurs serveurs virtuels », explique Arnaud Jannin, chef de produit serveurs Proliant chez HP. « Auparavant, les développeurs utilisaient deux à trois machines virtuelles sur un serveur. Aujourd’hui, certains projets réclament jusqu’à cent machines virtuelles. Nous assistons à une réelle révolution, comparable à celle de la consolidation des serveurs Unix de la fin des années 1990 », renchérit Jean-Yves Pronier, directeur marketing chez Sun Microsystems. Désormais, il devient possible d’effectuer des tests en grandeur nature, sans acheter de nouveaux serveurs. Mieux encore : les tests sont même possibles sous des environnements cibles, ou encore sous des systèmes d’exploitation plus supportés par leurs éditeurs. Des capacités qu’apprécieront les développeurs, non seulement pour la maintenance d’applications existantes, mais aussi pour les nouveaux développements.

ParaVirtualisation_Xen.gif En optimisant la gestion des drivers, Xen gagne en performances. La gestion des processeurs Intel et AMD à 64bits intégrant la virtualisation ouvre encore la solution et permet d’accueillir Windows.


Une haute disponibilité réelle et accessible

IBM_Joel_LeRay213391_Copie7.gifJoël Leray, directeur technique Serveurs et Technologies chez IBM France.
Par ailleurs, dans des politiques de PRA (Plan de reprise d’activité), « Les serveurs virtuels permettent de bâtir simplement des architectures de haute disponibilité, explique Alain Le Hégarat, responsable marketing Windows Server chez Microsoft France, ainsi, une image virtuelle peut servir à la réplication en temps réel autorisant une reprise d’activité sans impact. » Et pour Jean-Yves Pronier, « L’entreprise peut créer une image flash de serveurs, et switcher sur cette image en cas de problème sur la machine source. Et cette image peut être hébergée sur le même serveur ou sur un autre : peu importe ! »


La démocratisation du must des grands systèmes

La virtualisation est née sur les grands systèmes pour lesquels les taux d’utilisation des processeurs et de la mémoire représentaient une unité d’œuvre et souvent de facturation. Les entreprises ont donc rapidement souhaité optimiser les ressources de ces machines onéreuses. « Nous utilisons ces technologies depuis des années sur les mainframes, et depuis environ 5 ans sous les serveurs Unix. Le marché affiche aujourd’hui un vif intérêt pour la virtualisation sur les architectures X86, dans la lignée d’éditeurs comme VMware ou Microsoft », constate Joël Leray, directeur technique Serveurs et Technologies chez IBM France. « Depuis 1996, nos Server 10000 intègrent le multidomaine avec un découpage physique des ressources générant des environnements étanches disposant chacun d’une instance de système d’exploitation. Plus tard, ils seront appelés machines virtuelles. Toutefois, l’allocation de ressources reste fixe et prédéterminée. Puis, la technologie apporte l’allocation dynamique de mémoire en 1999 et des cartes d’entrée sorties en 2000. Alors, la fonction d’hyperviseur se concrétise par une carte physique dédiée, sous architecture Spark et uniquement avec des systèmes d’exploitation Solaris, y compris pour les instances virtualisées. En 2005, apparaît la notion de “domaine logique”, permettant d’exécuter des systèmes d’exploitation différents sur la même machine. Quant à l’attribution des ressources, elle peut désormais s’effectuer à une granularité très avancée : en cœur de processeur, et même en thread de calcul », résume Jean-Yves Pronier, et d’ajouter que « dans le monde Unix, les taux d’utilisation des serveurs atteignent aisément 55 % à 60 %, soit 3 à 5 fois plus que sur les architectures X86 actuelles ! ».


Un marché jeune et dynamique

L’avènement de l’éditeur VMware illustre l’intérêt croissant du marché pour la virtualisation sur architecture X86. Créé en 1998, l’éditeur n’a proposé son premier logiciel serveur qu’en 2001. VMware occupe aujourd’hui le devant de la scène, après avoir été racheté fin 2003 pour 635 millions de dollars par le géant du stockage EMC. En cinq ans, la technologie a rapidement évolué. Et il est vrai que l’arrivée de Microsoft avec sa solution Virtual Server a également dynamisé le secteur. « Désormais, la virtualisation est une fonction du système d’exploitation, proposé avec Windows 2003 Server R2, gratuitement téléchargeable depuis l’été 2006. D’ailleurs, il sera inclus dans les couches basses de Longhorn Server fin 2007 », annonce Alain Le Hégarat. Depuis l’été 2006, Microsoft Virtual Server permet de virtualiser des serveurs sous divers systèmes d’exploitation – Windows2003, 2000, NT4 –, mais aussi sous RedHat, et Suse.
Enfin, le projet Open Source Xen a été lancé en 2001 à l’université de Cambridge, au Royaume-Uni, sous la direction de Ian Pratt. Ce dernier a, depuis, créé la société XenSource afin de poursuivre le projet et de commercialiser des solutions basées sur Xen.



Trois générations pour une répartition toujours plus flexible

Virtualisation_Microsoft.gifDans ce schéma, l’hyperviseur gère directement le lien entre les composants et les systèmes d’exploitation des machines virtuelles, dont la principale assure la coordination.
La virtualisation repose sur un chef d’orchestre chargé de gérer toutes ces instances de système d’exploitation : l’hyperviseur – ou VMM pour Virtual Machine Monitor. Néanmoins, les machines virtuelles installées sous forme applicative consomment beaucoup de ressources comme les entrées/sorties, par exemple. La possibilité de définir une politique de répartition, de priorités, et de seuils au niveau de l’hyperviseur permet d’en optimiser le fonctionnement. « Ainsi, il est difficile sous Windows d’attribuer 2 Go de Ram à une machine virtuelle puis de repasser à 1 Go. Il faut alors relancer la machine virtuelle (VM). En définissant de la mémoire de swap au niveau de l’hyperviseur avant le lancement (1 Go de Ram par machine virtuelle + n Mo ou Go de swap), il devient possible de modifier dynamiquement l’allocation mémoire. Autre mécanisme possible d’optimisation de la mémoire : si trois VM disposent de 2 Go de mémoire, et que l’hyperviseur repère trois fois la même information mémoire, il consolide, quitte à déconsolider en cas de besoin », détaille Sylvain Siou. Ce paramétrage de machine virtuelle avec réallocation dynamique existe déjà dans la première génération des systèmes de virtualisation X86. Puis, la seconde génération a apporté le déplacement de machine virtuelle « à chaud ». « Avec VMotion, il devient possible de migrer, sans interruption de service, une machine virtuelle sur un serveur physique différent, de maintenir les serveurs sans interrompre les sessions utilisateurs, afin d’équilibrer les charges dans l’ensemble du datacenter en fonction de l’évolution des demandes », précise Sylvain Siou.
Enfin, avec la 3e génération, (technologie DRS pour Distributed Resources Scheduling et HA pour VMware), la virtualisation peut considérer toutes ressources matérielles comme une seule entité unifiée, simplifiant ainsi l’allocation de ressources, la répartition de charge, la disponibilité des systèmes, etc.


L’heure de la paravirtualisation a sonné

Microsoft_Alain_Le_Heg13396.gifAlain Le Hégarat, responsable marketing Windows Server chez Microsoft France.
Le projet Open Source Xen a encore fait avancer le débat, et initié la prochaine étape. Avec la paravirtualisation, l’hyperviseur gère des machines virtuelles contenant des drivers Xen, donc des systèmes d’exploitation modifiés. Néanmoins, les performances sont bien meilleures. Xen est disponible sous Linux, et sa version 3 accepte comme systèmes hôtes différents Linux, Windows (via la technologie, Intel VT et AMD Pacifica), et Solaris. Nombre d’acteurs majeurs se sont penchés sur le berceau de Xen. « IBM a contribué à la communauté Xen, et fortement au développement de l’hyperviseur. Ce dernier arrivé, il bénéficie d’une excellente adaptabilité aux nouvelles technologies et n’est freiné par aucun souci de compatibilité ascendante. De bons outils d’administration en feront un acteur sérieux du marché », estime Joël Leray. « Depuis le départ, de nombreux ingénieurs chez HP participent au projet Xen, et cela continue », confirme Arnaud Jannin.
Autre soutien de taille, Microsoft s’est associé à XenSource pour co-développer une technologie de virtualisation dans le futur système d’exploitation serveur Longhorn. « Avec VMware, les pilotes se situent au niveau de l’hyperviseur. Cela entraîne une dépendance totale de l’entreprise par rapport à VMware. De plus, les constructeurs écrivent ces pilotes pour les systèmes d’exploitation les plus répandus (Windows, Unix, Linux…). Or, sous VMware, l’OS est propriétaire, et ils doivent les développer eux-mêmes. Avec la couche de virtualisation de Xen sous LongHorn, les pilotes remontent d’un niveau », explique Alain Le Hégarat.


Y a-t-il un superviseur dans la salle ?

La gestion de ces machines virtuelles et leur intégration à une supervision globale se révèlent souvent délicates. Même si Microsoft et VMware publient désormais les formats descriptifs de leurs machines virtuels, chacun reste chez soi et se contente d’entrouvrir la fenêtre. « L’administration reste le problème majeur de la virtualisation, la pierre d’achoppement de la pyramide. Plus le domaine applicatif est critique, plus le besoin de management est criant. On constate alors que le bébé a grandi plus vite que le pyjama », lance, amusé, Jean-Yves Pronier. Pourtant, les géants du secteur comme IBM ou HP proposent leur solution. « Nous fournissons avec nos serveurs le logiciel HP Systems Insight Manager facilitant une gestion d’infrastructure cohérente qui gère toutes les remontées matérielles. En ajoutant les plug-in pour les environnements virtuels, l’entreprise peut superviser et administrer globalement tous ses environnements physiques et virtuels, migrer de serveur virtuel à machine physique et réciproquement, et toutes les combinaisons. Virtual Center de VMware, par exemple, ne voit que la couche VMware et pas les éléments physiques. Or, il nous semble essentiel de détecter une panne physique RAID 5, par exemple, même pour une machine virtuelle », affirme Arnaud Jannin. De son côté, IBM a annoncé, début novembre, le lancement de son logiciel Virtualization Manager dans sa gamme IBM Systems Director, permettant de gérer simultanément les différentes machines virtuelles et physiques.


La tarification des licences passe à la révision

Sylvain-Siou_VMware13402_C8.gifSylvain Siou, directeur technique chez VMware.
La virtualisation touche également le mode de vente des licences. Car, quelle que soit la technologie de virtualisation, l’entreprise doit bénéficier d’une licence pour chaque système d’exploitation. Pour lever ce frein, les éditeurs proposent des prix plus attractifs.
Sur les machines de type Unix ou mainframe, les politiques de prix ont déjà entamé leur évolution avec l’informatique à la demande. Sur les architectures X86, les choses commencent à bouger. Chez Microsoft, Alain Le Hégarat explique que « Si le serveur physique fonctionne sous Windows 2003 Server R2 Edition Entreprise, le client a la possibilité de faire fonctionner jusqu’à quatre machines virtuelles sur ce même serveur physique sans racheter de licence Windows Server NT4, 2000 ou 2003. Ainsi, si l’entreprise souhaite utiliser huit serveurs, il lui suffit d’acheter deux licences, que les machines soient “bi-pro” ou “quadripro”. Chez Microsoft, seul le processeur est pris en compte, bicœur ou non. Enfin, sous Windows 2003 R2 Datacenter, le nombre de serveurs virtuels est illimité. »
De leur côté, les « éditeurs Linux », tout comme Sun avec Solaris, ne vendent pas de licences, mais proposent un contrat de support et de mises à jour. Néanmoins, combien d’entreprises envisagent-elles sérieusement d’installer un système d’exploitation en assumant tous les risques pour des applications critiques ? Conscient de cet état de fait, Novell-Suse propose une facturation du service en fonction des plates-formes (X86, mainframe ou châssis – sans limitation de CPU), quel que soit le nombre de machines virtuelles sur cette même plate-forme. « Avec Solaris, la licence est gratuite, et notre tarif est basé sur une contractualisation du support. Sous Solaris 10, le support des OS sous machine virtuelle est inclus quel que soit leur nombre sur le serveur. Sous d’autres systèmes, il suffit de payer le support une fois pour couvrir toutes les machines virtuelles sur une plate-forme », indique Jean-Yves Pronier. Enfin, Redhat peaufine encore ce début d’évolution, comme l’annonce Franz Meyer, directeur Europe du Sud chez l’éditeur : « Redhat supporte déjà la virtualisation avec VMware. La tarification s’effectue par instance de système d’exploitation sur serveur physique ou virtuelle : un OS égale un contrat. Suite à la demande de grands clients, nous étudions des tarifs négociés pour les gros volumes de machines virtuelles. Toutefois, les choses évolueront avec RedHat 5, dès le début 2007, car il inclura la technologie de virtualisation Xen. Alors, la tarification s’affranchira du nombre machines virtuelles. »




LES NOUVEAUX PROCESSEURS 64 BITS X86
Avec sa technologie VT (Vanderpool Technology ou Virtualized Technolgy), Intel utilise une couche de l’hyperviseur (ou Virtual Machine Monitor – VMM), pour émuler un ensemble complet de ressources matérielles pour chaque machine virtuelle. Le processeur assure ensuite les liens avec le matériel physique. Une indépendance plus avancée entre logiciel et matériel, et entre systèmes d’exploitation et machines virtuelles, qui simplifie grandement la virtualisation. De plus, ces processus renforcent encore l’isolation des machines virtuelles, en évitant la propagation d’interruptions entre elles. Avec l’architecture X86 classique, les logiciels de virtualisation doivent effectuer des opérations complexes pour faire croire à la machine virtuelle que son système d’exploitation (OS) agit bien au niveau du système par rapport à la machine, avec les privilèges associés à un OS. D’où de multiples émulations, consommatrices de ressources et de temps processeur. Autre inconvénient, chaque nouvelle version d’OS oblige les éditeurs de virtualisation à modifier leur solution. Avec sa technologie AMD Virtualization (nom de code initial : Pacifica), le fondeur concurrent d’Intel propose également ce type de technologie. Les éditeurs majeurs de virtualisation, comme Microsoft, VMware ou XenSource, ont déjà annoncé le support de ces technologies dans leurs derniers produits. Ont-ils vraiment le choix ?

p.3
Réduire
PACA MOBILE CENTER

Éditeurs ou intégrateurs de solutions mobiles, le PACA Mobile Center, implanté au Pôle Media de la « Belle de Mai » à Marseille, est une association qui peut vous faire économiser beaucoup d’argent !

P104045336057_Copier15.gifLe 12 octobre dernier, le PMC (PACA Mobile Center) a donc été officiellement inauguré à Marseille. Il s’agit du premier centre européen mettant à disposition de ses membres des centaines de modèles de téléphones mobiles et, plus important, leurs caractéristiques techniques, à des fins de développements ou de tests. Actuellement, cette « mobilethèque » propose plus de 275 téléphones de toutes marques et vise l’objectif des 1 000 téléphones à la fin 2007, soit une quasi exhaustivité pour le parc de mobiles exploités en France.
Bien entendu, cette association sert déjà aux entreprises qui sont à la base de l’initiative : Mobile Distillery, Audio Mobile Agency, MobiVillage et Miyowa (voir encadré). Cependant les locaux de la « Belle de Mai » accueillaient lors de l’inauguration plusieurs autres membres du PCM qui utilisent déjà ses services. Ainsi, par exemple, la société parisienne Kaolink (www.kaolink.com), qui développe des jeux à succès sur portables, vient de délocaliser une partie de son équipe de développement à Marseille pour profiter pleinement des services du PMC. Et ViaMichelin, Stonetrip et Paycool Development leur ont emboîté le pas… Le Centre a généré, en fin de phase pilote – septembre 2006 –, 15 000 euros de services pour déjà 22 clients !
Enfin, une petite surprise nous attendait lors de l’inauguration puisque le responsable technique du PACA Mobile Center n’est autre que notre ancien rédacteur en chef adjoint, à l’Informaticien, Alexandre Deloy (lire l’encadré) !


Mutualisation indispensable

Lors du développement d’une application J2ME, celle-ci doit toujours être adaptée à plusieurs modèles de téléphones, plus ou moins selon la finalité du développement. Dans tous les cas, pour un jeu par exemple, il est indispensable que le logiciel puisse fonctionner sur le maximum de machines. Chaque téléphone coûte entre 100 et 800 euros et donc lorsqu’il faut porter et tester un développement sur plusieurs centaines de modèles, il faut compter avec un investissement d’environ 50 000 euros par an… Et voilà, l’utilité indéniable de ce Centre mutualiste démontré ! « Nous réduisons leurs investissements sur l’achat de terminaux mobiles, mais nous accélérons également le “Time to Market” de leur application », déclare Vincent Berge, le président de l’association.
Beaucoup plus intéressant encore, pour chacun des téléphones dont il dispose, le PMC met également à disposition de ses membres des outils technologiques et une base d’informations actualisées. Les constructeurs de mobiles sont généralement bien avares d’informations et documents techniques, c’est donc là une véritable aubaine que de pouvoir connaître tous les détails indispensables à un développement sur un modèle spécifique. Sésame de cette base de connaissance unique, un petit développement de Mobile Distillery qui analyse les téléphones, leur configuration hardware et software, pour en extraire la substantifique moelle.
Enfin, précisons que si le Centre est le premier de ce type en Europe, ce n’est pas le seul. Wireless Innovation adopte la même démarche en Écosse. Le PCM a donc noué un accord de partenariat avec cette organisation ouvrant ainsi également accès à des modèles utilisés par les opérateurs britanniques. Dans le même esprit, des téléphones utilisés par les opérateurs chinois commencent à être disponibles…
Aujourd’hui, PACA Mobile Center est ainsi partenaire d’Orange, Sharp, Samsung, Pantech, ETSI, etc.


Dans la pratique…

En pratique, il est possible d’accéder aux services du PACA Mobile Center grâce à un forfait annuel ou à une tarification à la journée. Ensuite, il faudra utiliser les services de réservations en ligne du site www.PACAmobilecenter.com sur lequel vous pourrez également accéder à la base de connaissance. Les portables peuvent ensuite être utilisés dans les locaux du PMC ou être prêtés pour une courte durée. De nouveaux modèles peuvent être achetés sur demande d’un des membres et plusieurs modèles sont achetés en double en cas de forte utilisation…
On comprendra facilement que ces services sont essentiellement utilisés, pour l’instant, par des entreprises peu distantes du site de la Belle de Mai. Mais à dix minutes à pied de la gare TGV de Marseille, il y a des chances pour qu’il attire rapidement une clientèle internationale. Labellisé par le pôle de compétitivité mondial
« Solutions communicantes sécurisées », le Centre est significativement soutenu par la Drire et le Conseil régional. Un appui qui lui permet d’accorder des tarifs privilégiés aux entreprises régionales. Ainsi, le forfait annuel pour une libre utilisation passe de 12 000 à 6 000 euros pour une entreprise locale ; la location à la journée étant ramenée de 300 à 150 euros. Et finalement les prix des bureaux et locaux commerciaux sont encore abordables au centre ville de Marseille ! L’initiative devrait donc attirer plus d’une entreprise dans la Cité phocéenne, « carrefour de l’Europe ».
    Thierry Platon


Les fondateurs de PMC

• Mobile Distillery (www.mobile-distillery.com) est le principal acteur dans la création du PMC. Cette société a développé Celsius, une solution de portage d’applications Java sur mobiles. Il suffit de développer une application en utilisant le framework J2ME de Celsius pour pouvoir bénéficier des services de Mobile Distillery : le portage quasi-immédiat sur plus de 350 téléphones, intégrant une gestion des interruptions, des différentes résolutions, des fonts, des sons, des sprites, du multilangue, de la connectivité http, etc. Le gain de temps sur le portage est très important et le développement coûte de 60 à 80 % moins cher !

• Audio Mobile Agency (www.audiomobileagency.fr) est spécialisée dans la création audio pour mobile, de la musique au marketing.

• MobiVillage (www.mobivillage.com) est un des leaders du multimédia mobile, fournissant des solutions innovantes de développement de sites Internet pour mobiles. Chaque mois, les plates-formes de MobiVillage enregistrent plus de 70 millions de pages vues et 2 millions de téléchargements !

• Miyowa (www.miyowa.fr), créateur de la technologie MoveMessenger, fournit aux opérateurs et aux portails des services de messagerie instantanée compatibles avec les standards en place.

De la presse aux mobiles…

PICT004736071_Copier16.gifChef de rubrique pour Programmez, pour 100 % Linux, puis rédacteur en chef adjoint de l’Informaticien des premiers jours, Alexandre Deloy est avant tout un confrère respecté et un ami de la rédaction. Fraîchement installé à Marseille, il ne donnait plus de nouvelles… Le voilà, retrouvé, souriant, au PACA Mobile Center au sein duquel il occupe le poste de Responsable technique.
Il regrette probablement que les portables ne fonctionnent pas sous Linux et que les attachées de presse soient moins nombreuses autour d’une association mutualiste. Bien entendu, il s’agit d’un clin d’œil, mais c’est aussi pour nous un gage de qualité des services du PACA Media Center.
Alors, bon courage Alex ! Finalement, il n’y a qu’un téléphone mobile de plus au monde tous les deux jours…
Edito
Réduire
Fibre optique : le nouveau Rubicon


newstef26526_Copier5.gifFTTH (Fiber to the Home). Derrière cet acronyme barbare se cache l’un des principaux enjeux technologiques des dix ou vingt prochaines années : celui d’équiper le maximum d’entreprises et de particuliers avec une connexion très haut débit, c’est-à-dire dépassant les 100 Mbits en émission, comme en réception.

Actuellement, les principaux acteurs de ce marché fourbissent leurs armes et s’opposent à coups de spécifications techniques qui pourraient apparaître secondaires mais qui, en réalité, sont déterminantes pour l’ouverture du marché, le dégroupage tel qu’on le connaît avec la technologie DSL.
À quelques mois d’élections nationales de première importance, il nous paraît indispensable que l’ensemble des aspirants aux fonctions présidentielle et législative se documentent très sérieusement sur ce sujet, et il nous semble tout aussi important que l’ensemble des professionnels de l’informatique – utilisateurs ou acteurs du marché – réfléchissent puis s’expriment sur ce sujet. Pour notre part, nous en sommes encore au stade de la réflexion, mais nous prendrons position au cours des prochains mois car, d’ores et déjà, il nous apparaît que les différents protagonistes ne jouent pas cartes sur table et qu’il existe plus de non-dits que de dits dans leurs choix exprimés.

Quelques faits s’expriment cependant sans aucune ambiguïté : l’équipement fibre va coûter extrêmement cher – il reste à savoir à qui et dans quelles conditions –, mais il en coûterait encore plus de ne pas s’y résoudre. Les enjeux sont véritablement stratégiques en termes de développement économique, d’aménagement du territoire, de création (après formation) d’emplois très qualifiés, de recherche, d’éducation, de politique de santé… Bref, après avoir franchi avec retard mais allégrement le pas vers le haut débit (il y a désormais 11 millions de personnes disposant d’une connexion permanente de type ADSL ou câble), le Rubicon s’appelle fibre optique, afin de basculer complètement dans l’économie numérique.

D’aucuns pourraient considérer que la situation valétudinaire de notre pays ne justifie nullement des investissements publics ou privés qui s’élèveront à plusieurs dizaines de milliards d’euros. Nous leur rétorquerons que ne pas y souscrire générera des pertes bien supérieures et que les perspectives économiques liées aux technologies de l’information sont certainement l’un des leviers les plus efficaces pour retrouver d’importantes marges de manœuvre économiques et sociales.

Ces dernières années, avec l’implantation rapide et massive de l’ADSL, le « génie » français a montré sa capacité à retourner en quelques temps une situation critique par rapport aux pays de rang similaire. Dans le domaine de la fibre, nous ne sommes pas encore en retard face à nos principaux partenaires européens. Au contraire, nous serions plutôt en pointe. Aussi, ne gâchons pas cet avantage et profitons des échéances à venir pour transformer l’essai en affirmant l’importance d’un équipement rapide, conséquent et propice à la concurrence.
    
Stéphane Larcher
TechEd
Réduire
L’offensive de Microsoft sur les Data Centers
Par Bertrand Garé - copyright L'Informaticien, tous droits réservés.

Le mois de novembre aura ressemblé au « Mois Microsoft ». Après Convergence IT à Munich, un événement utilisateurs et partenaires pour les produits de la gamme MBS (Microsoft Business Solutions), Barcelone a accueilli le TechEd, une conférence pour les développeurs dans les environnements Microsoft, et IT Forum, un autre événement pour les partenaires et utilisateurs des logiciels d’infrastructure Microsoft. Ce dernier a mis en exergue les outils d’administration système et les moyens de vivre sereinement les migrations à venir sur Vista et Office 2007.

Photo-0019248_Copier5.gifMalgré plus de 4 000 personnes présentes, les délégués de la convention pouvaient se connecter partout, mais ne pouvait pas utiliser de clé USB… Eh oui !, il est possible de bloquer les ports USB avec Vista, le système installé sur toutes les machines.
Le contenu de l’IT Forum, qui s’est tenu du 14 au 17 novembre dernier à Barcelone, a été une petite surprise. Tout le monde s’attendait à recevoir une bonne dose d’informations sur Vista, le nouveau système d’exploitation de l’éditeur de Redmond qui vient d’être libéré en version RTM pour les constructeurs d’ordinateurs ou les éditeurs partenaires de Microsoft, et sur Office 2007, la nouvelle mouture de la suite bureautique de l’éditeur. Sur ce point, il n’y a pas de déception à avoir, les sessions techniques sur ces deux produits étaient présentes. Mais c’est plus sur l’aspect administration et sur les outils d’aide à l’adoption de ces produits que le contenu de la conférence a tourné.
L’idée principale a été de démontrer qu’il était facile à la fois de migrer vers les nouveaux produits de Microsoft, mais aussi que l’éditeur a mis en place les outils pour que cette migration se réalise dans les meilleures conditions, même dans des environnements hétérogènes. Le deuxième message tenait sur le fait que, suite à la migration, les outils étaient présents pour administrer au mieux les logiciels installés.

L’objectif de la conférence était de démontrer que Microsoft est à même de fournir les meilleurs outils pour administrer et « monitorer » ses propres environnements. Le but n’est pas loin d’être atteint avec la profusion et la puissance des outils présentés lors de la conférence. La conséquence de cette logique est aussi de fournir les outils d’administration pour tous les segments d’utilisateurs des environnements Microsoft, que ce soient de grandes entreprises ou des PME, moins richement pourvues de ressources en interne pour administrer et suivre leur environnement.
Les principales annonces de la conférence concernent ainsi l’enrichissement de la brique System Center, la suite dédiée à l’administration des environnements Microsoft.


Une profusion d’outils d’administration système

La démonstration la plus spectaculaire a été celle de la présentation de Powershell, un outil d’administration en ligne de commande, bien différent de celui que l’on connaissait sous DOS, puisqu’il s’inspire, selon Jeffrey Snover, architecte du produit, « du meilleur que nous connaissions sous Unix pour les administrateurs ». Utilisable avec les produits existants et les produits qui vont être livrés lors du premier semestre de l’année, comme la nouvelle version d’Exchange Server, Powershell automatise de nombreuses fonctions d’administration par des scripts en langage orienté objets. Il est d’ailleurs possible de reprendre des scripts existants et de les adapter pour être utilisés par Powershell. La puissance de l’outil a été démontré en live et sans filet par l’administrateur du data center de MySpace (plus de 3 000 serveurs) avec le scan en un peu plus de dix secondes de près de 720 serveurs !

Autre logiciel présenté, la mise à jour de SMS qui s’enrichit d’un module autorisant des déploiements zero touch. Le module permet de produire une image d’un environnement et de le pousser sur les machines nécessitant ce déploiement de manière automatique. L’outil peut aussi réaliser automatiquement des packages. Le produit ne semble pas connaître de limitation en nombre de postes pour les déploiements.

Un autre logiciel présenté permet de réaliser un audit applicatif sur les serveurs et les postes et de savoir si une application est compatible avec Vista ou non par exemple. Il est alors possible d’utiliser SoftGrid, un logiciel issu du rachat de Softricity, qui réalise un encapsulage du streaming d’une application. Celle-ci se retrouve isolée du système hôte, une sorte de virtualisation « Canada Dry » assez efficace, qui permet de faire tourner des applications métier critiques sur un environnement normalement incompatible.

Sur le secteur clé que constituent les bases de données, les développeurs et administrateurs de SGBD pourront s’appuyer sur Visual Studio Team Edition for DB pro. Ce logiciel de la suite Team Center, propose un référentiel unique qui permet de regrouper tous les éléments d’un projet base de données et de faciliter la collaboration sur un tel projet. Il a de plus été confirmée la sortie de System Center Operation Manager au cours du premier trimestre de l’année prochaine.


Aller au-delà des environnements Microsoft

Si Microsoft veut être le meilleur administrateur de ses propres environnements, il ne néglige pas le fait qu’il n’est pas le seul fournisseur de solutions présent dans le data center. Les différents outils d’administration présentés prennent en compte cette réalité en proposant soit des connecteurs, soit des possibilités d’intégration par des Web Services pour fonctionner avec des outils tiers ou partenaires. Ainsi, l’outil de déploiement zero touch peut très bien être utilisé avec un autre outil de télédistribution que celui de Microsoft.

Il serait cependant faux de penser que cette « ouverture » soit un constat ou un aveu de faiblesse de Microsoft. Ce serait, selon nous, plutôt l’inverse. Microsoft met un pied dans le monde de l’administration de manière efficace et va se servir de cette tête de pont pour aller sur de nouveaux terrains de chasse et devenir l’outil d’administration dans les centres de données. L’annonce parallèle de l’Interoperability Vendor Alliance ne peut que renforcer cette analyse. L’éditeur, comme avec tous les autres produits qu’il a développé jusqu'à présent, se construit un écosystème autour de cette nouvelle brique pour l’imposer du fait de la force applicative que cette alliance implique.

Ainsi, la stratégie sera certainement de fournir les briques de bases de l’administration des centres de données et de laisser aux partenaires des niches très spécialisées. Xcalia en est un bon exemple. Ce partenaire permettra de réaliser l’intégration entre les environnements Java présents dans les data centers et les outils de Microsoft en .NET.

Microsoft semble donc toujours aussi offensif et le flot d’annonces qui va déferler dans les huit mois à venir ne va certainement pas ralentir le rythme de la dynamique actuelle chez l’éditeur.
Réseaux Sociaux
Réduire
RÉSEAUX SOCIAUX
Les Meetic de la rencontre professionnelle

Outils de pouvoir ? Outils de productivité ? Véritables outils ou… miroirs aux alouettes ? Les réseaux sociaux en entreprise sont aujourd’hui des « produits » sur le Web, et des projets à l’étude en interne dans les grands groupes. De quoi s’agit-il vraiment ? Quel est leur concept ? N’y a-t-il pas quelque danger ?

Après le dossier « L’intelligence dans les réseaux », que nous vous avons proposé dans le numéro de septembre de l’Informaticien, s’intéresser aux réseaux sociaux offre en définitive une vue très avancée de ce à quoi peut servir une infrastructure qui a tout intérêt à être bien sécurisée et optimisée. Selon Fabrice Epelboin, de la société Yades (voir encadré), les usages des réseaux sociaux en entreprises en sont à leurs balbutiements. Ils vont largement se développer dans les 10 ans à venir. Aux États-Unis, certains outils déjà exploités depuis plusieurs années sont d’ores et déjà capables de mettre à mal toute notion de respect de vie privée si les internautes qui les exploitent ne mesurent pas la teneur des informations qu’ils laissent à portée de tout le monde.
De façon à envisager une vue plus globale sur ces nouveaux dispositifs qui peuvent avoir des impacts sociologiques importants, nous avons aussi interviewé Pierre Musso, philosophe de formation, chercheur en sciences politiques à la Sorbonne et professeur de sciences de l’information et de la communication à l’université de Rennes. Pierre Musso est aussi l’auteur de nombreux ouvrages, entre autres sur la philosophie des réseaux.


Les réseaux sociaux « commerciaux »

Parmi les réseaux sociaux les plus connus, Viaduc est celui qui rencontre le plus de succès en France. Il est le concurrent direct de « 6nergies », mais revendique une large avance sur le plan de la fréquentation avec 700 000 utilisateurs inscrits. Aux États-Unis, les réseaux sociaux les plus évolués ont pour nom LinkedIn (prononcez linked in), mais aussi OpenBC. Il existe encore Interfrench, trombi.com, etc.
Nous avons interviewé Dan Serfaty, P-DG de Viaduc, qui aime à ce que l’on qualifie sa société – et son produit – comme étant le « Meetic de la rencontre professionnelle ». Concrètement, entrer dans un réseau comme Viaduc est gratuit : il suffit de s’y inscrire. Ensuite, vous devez y jouer votre rôle, comme un maillon d’une entreprise de mise en relation de personnes. En fonction de la manière dont vous remplissez votre CV, indiquez des contacts, affichez des besoins, correspondez avec des personnes ou intervenez dans des forums, vous allez finalement créer votre propre couche transversale de « networking professionnel ». Le but de ce « réseautage » est évidemment de provoquer des rencontres professionnelles pour que cela vous serve à titre personnel dans votre plan de carrière, mais cela permet aussi de trouver des partenaires pour réaliser des projets, etc. C’est avec un abonnement payant aux alentours de 5 à 6 euros par mois que l’on arrive à pouvoir travailler avec le réseau que l’on se crée.


Jusqu’où vont les américains !

Le networking social informatique aux États-Unis va beaucoup plus loin que ce que proposent les sites européens. Tout est aussi une question de respect de la vie privée et un networking professionnel en fait également partie. Les croisements d’informations dans les bases de données peuvent donner des indications sur vos relations personnelles avec d’autres usagers du réseau ou de la plate-forme. Les éléments publiés sur des sites comme LinkedIn peuvent vous suivre, voire même vous pister non seulement dans votre CV, mais éventuellement dans celui des autres. D’une part, entrer dans un réseau de ce type mérite une réflexion profonde sur ce que vous en attendez ; d’autre part, il faut être conscient de l’importance des informations que vous y déposez.
Comme le souligne Fabrice Epelboin, il y a une mémoire phénoménale sur Internet et les écrits peuvent y rester très longtemps, y compris les commentaires que certains pourraient faire sur votre parcours professionnel si vous les acceptez à la légère. Les escrocs existent aussi sur ces réseaux sociaux, mais ils ont de plus en plus de mal à se cacher.


Les réseaux sociaux dans les entreprises

Dans une entreprise, le réseau social naît plutôt d’une volonté d’amélioration du fonctionnement de l’entreprise par son management. C’est en tous cas ce que pense Fabrice Epelboin, chez Yades. Cela rejoint l’idée de Pierre Musso qui pense que le réseau social, y compris selon le modèle informatique, en définitive, ne remet pas en cause les fondamentaux de la hiérarchie et de la communication entre les hommes : « Quand le chemin de fer est arrivé au XIXe, on a dit cela va changer toute la société. Évidemment, cela a beaucoup modifié les choses. Quand l’électricité est arrivée, on a dit c’est la grande rupture qui bouleverse tout ; chaque fois, cela a changé beaucoup de choses, mais cela ne bouleverse pas toute la société. » Les réseaux informatiques et les réseaux sociaux – ou plus justement les communautés virtuelles selon le langage approprié – qui s’appuient dessus, offrent de nouveaux outils de management, de productivité et de production. Les cadres supérieurs les absorbent les premiers, mais toutes les populations ou presque finissent aussi par les adopter sans révolution.


Étudier les pratiques des salariés

Dans L’Informaticien, le principe est de faire le point sur une technologie ou une tendance. Difficile pour l’instant d’imaginer les orientations des réseaux sociaux basés sur l’outil informatique. Il est certain qu’il y a une grande tendance globale avec des initiatives qui regroupent déjà plusieurs millions de personnes sur des dispositifs externes à l’entreprise (sur le modèle ASP), Mais l’entreprise et / ou ses membres peuvent quand même exploiter ce que l’on appelle aujourd’hui le networking, c’est-à-dire la mise en relation à un instant « t », éphémère ou non, de personnes qui ont un intérêt commun sur un sujet.
Il existe des dispositifs, mais, comme le souligne Pierre Musso, « Un bon système d’information doit partir des pratiques des salariés et des personnels des entreprises et pas simplement arriver comme un ajout qui s’impose à tout le monde et que les gens devraient s’approprier ou subir. » Les systèmes externes proposés par des sociétés, comme Viaduc, sont à multiples facettes, puisqu’ils offrent une certaine malléabilité de l’utilisation qui peut être faite du système d’information (voir encadré).

Le rôle du professionnel de l’informatique n’est-il pas aujourd’hui d’ajouter une corde à son arc en entreprenant sa propre mise en relation avec les métiers auxquels il veut apporter des services « pensés ». Ne doit-il pas s’attacher à être soutenu par des « experts inter-disciplines » ? Si le métier de coordinateur de l’initiative numérique n’existe pas, il va falloir l’inventer.


« Ce n’est pas la technique qui bouleverse l’organisation, mais les modes de management »

Pierre Musso, professeur de sciences de l’information et de la communication à l’université Rennes II, est chercheur au LAS Rennes 2 et à LIRE-CNRS Lyon.

L’Informaticien : Que pensez-vous des réseaux sociaux en entreprise. Ne croyez-vous pas qu’il y ait des dangers de sectarisme, d’élitisme, etc ?
Pierre Musso : Tout d’abord, il faut souligner que les entreprises exploitent de plus en plus de systèmes d’information. Il s’agit désormais d’outils stratégiques pour ne pas dire d’un quasi facteur de production, ou en tous cas de productivité. Je pense qu’une société qui n’a pas un bon système d’information a des soucis à se faire. Cela s’accompagne d’un discours managérial généralisant et c’est là, je pense, qu’il y a un risque : en effet, les réseaux horizontaux, ça « supprimerait » la hiérarchie, tout le monde peut parler à tout le monde sur le même plan d’égalité, tout deviendrait fluide, rapide et transparent, etc. Là, je pense qu’il y a beaucoup d’illusions et que ces systèmes d’information si performants soient-ils, ne suppriment ni les hiérarchies, ni les organisations verticales. En effet, ce n’est pas la technique qui bouleverse ici l’organisation, mais les modes de management. Dans une organisation décentralisée en projets par exemple, il y aura des modifications sensibles de l’entreprise. Mais ce n’est pas par la seule vertu de l’introduction des systèmes techniques d’information qu’on modifie l’organisation d’une entreprise… Les techniques ne font qu’accompagner et enrichir des pratiques et des modes de gestion, de management et de travail. Et c’est pour cette raison qu’un bon système d’information doit partir d’une connaissance fine des pratiques des salariés et des personnels des entreprises, et ne pas arriver comme un contrainte imposée de l’extérieur obligeant les utilisateurs à subir des logiques techniques. Ce qui est fondamental dans la réussite de l’insertion d’un bon système technique, c’est de partir des activités pour que s’effectue « naturellement » l’appropriation par le plus grand nombre.


serfaty.gifDan Serfaty, P-DG de Viaduc
« Viaduc regroupe 700 000 membres cooptés ou invités »

L’Informaticien : Comment définiriez-vous Viaduc ?
Dan Serfaty : Viaduc est une plate-forme ouverte de mise en relation de personnes. Il n’y a pas de marque blanche. Elle regroupe 700 000 membres qui l’ont rejointe selon un principe de cooptation ou d’invitation. C’est en quelque sorte le « Meetic de la rencontre professionnelle », comme je l’ai déjà entendu dire plusieurs fois.
La notion supplémentaire, c’est celle du « réseautage ». Viaduc est en quelque sorte un intermédiaire, un tiers de confiance. L’inscription est gratuite, certains services, comme l’abonnement au service premium, coûte 5 à 6 euros par mois. La mise en relation fait partie des services sur abonnement. Il y a aussi le modèle B2B que les recruteurs payent pour « chasser ». Viaduc est une plate-forme, elle ne produit pas de contenu. Elle est basée sur le principe du Web 2.0, où ce sont les membres qui produisent. Il y a par exemple la section des Hubs avec lesquels des experts peuvent créer leurs forums de compétences.

L’Informaticien : Y a-t-il des services de messagerie instantanée couplée, de chat ? Y a-t-il des applicatifs à l’intérieur d’un Hub qui pourraient par exemple permettre de faire payer des services/diagnostics ?
Dan Serfaty : L’instant messaging et le chat sont dans les cartons. Viaduc n’a pas non plus la vocation de devenir une place de marché comme le site chinois Alibaba.com. On sort du contexte.


Fabrice Epelboin, fondateur de Yades, société de consulting en usages d’Internet et du Web 2.0

Une première application dans les grandes entreprises : accélérer le process du recrutement interne

« Pour l’instant, en entreprises, on en est au stade de l’expérimentation. Il n’y a pas, à ma connaissance, de grandes entreprises qui se soient mises à fondre dans le networking social en interne. On peut observer aujourd’hui les effets du networking social orienté professionnel, comme LinkedIn, OpenBC (devenu Xing) ou Viaduc sur les entreprises, notamment sur leur stratégie de recrutement mais aussi sur certaines stratégies internes. On n’a pas aujourd’hui de grand groupe industriel qui se soit dit, je vais introduire le networking social au sein de ma propre entreprise pour des besoins de management, pour des besoins de recrutement interne – ce genre de concept commence à venir – ou pour tout autre besoin ; faciliter la communication de la société ou améliorer le climat social. C’est cela que nous allons voir dans les dix prochaines années. On en est vraiment aux balbutiements et je ne pense pas – je peux me tromper – que les services informatiques des grandes sociétés seront à l’initiative de ce genre de projets.
Aujourd’hui, ce que l’on voit, ce sont des solutions externes en ASP (Application Service Provider), qui vous proposent typiquement du recrutement interne. Vous avez un poste à pourvoir, bien souvent dans les très grosses entreprises on peut tout à fait trouver le poste à pourvoir au sein de la boîte, encore faut-il le repérer. Pour ça, il y a des outils qui commencent à être commercialisés en mode ASP qui permettent à n’importe qui, au sein de l’entreprise, soit de recommander quelqu’un dans l’entreprise, soit de dire que dans son carnet d’adresses, il a quelqu’un qui serait parfait pour ce poste là, et, au passage, de toucher une commission.
À la question de savoir si ces logiciels seront accompagnés de formation, je pense que la mise en place de ces outils sera brutale à l’intérieur de l’entreprise. Il y a des gens qui seront déjà utilisateurs de LinkedIn, Viaduc ou autres outils de ce genre qui s’y mettront immédiatement, et il y a ceux qui resteront à la traîne. On a vu le même phénomène quand Office est arrivé sur tous les PC de toutes les entreprises.
Pour ce qui concerne la gestion du « plan de carrière » avec ces outils, si vous regardez un CV sur LinkedIn, vous verrez que vous aurez déjà des commentaires sur chacune des lignes du CV faits soit par des collègues, des patrons, sous-traitants, etc. Donc, ce genre d’information va pouvoir être utilisé par des DRH en comparaison d’une vision assez restreinte qui est celle d’un CV. Avec ces applications, aux États-Unis, les informations peuvent être très intimistes et très limites en ce qui concerne le respect de la vie privée. Ce n’est pas de l’anticipation, cela existe depuis plusieurs années et c’est utilisé par pas mal d’entreprises. »

p.1
Réduire
BUREAU MOBILE
Les outils de gestion s’ouvrent à la mobilité
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

L’informatique se fait omniprésente. Elle se niche désormais au fond de toutes les poches et permet de travailler dans de nombreux contextes hors de l’entreprise. Il convient cependant de faire la différence entre nomadisme et mobilité. Outils et besoins sont distincts dans ces deux cas. La question posée est de savoir, aujourd’hui, s’il est véritablement possible de travailler en dehors de l’entreprise en ayant accès aux mêmes outils que dans le cadre d’un travail de bureau sédentaire. Oui ? Non ? La réponse est mitigée du fait des contraintes d’interfaces, de bande passante ou d’applications disponibles. Plus intéressant : les applications mobiles, souvent encore cantonnées dans des secteurs « métier » spécifiques, s’ouvrent désormais sur les outils de gestion et explorent de nouveaux horizons pour leur utilisation.

su-ray35704_Copier5.gifSur ce terminal Sun Ray, comme à partir d’un client léger, un utilisateur se connecte par un token ou une Javacard et retrouve son environnement de travail après identification.
Si les années 90 du siècle dernier ont vu l’explosion de la téléphonie mobile, le début de ce siècle a vu s’instaurer une convergence entre les appareils de téléphonie mobile et les assistants pour apporter des fonctions de mobilité à des données longtemps cantonnées au périmètre de l’entreprise.
Les premiers pas de cette convergence visaient à améliorer la collaboration entre employés d’une même entreprise et d’échanger informations et brefs messages. Une seconde vague, assez récente, a vu la possibilité d’accéder à des informations plus complexes comme des e-mails ou des données stockées dans des bases.
Il faut cependant modérer les apports de cette tendance qui se limitait parfois à la possibilité de lire les en-têtes des e-mails ou d’avoir une restitution sous format texte de champs limités d’une base de données (niveau des stocks par exemple). Cette étape marque cependant la séparation entre deux utilisations : les utilisations mobiles et les utilisations nomades. Les outils et terminaux sont souvent bien différents.


Mobilité vs nomadisme ?

Les mots mobilité et nomadisme sont souvent employés comme des synonymes. S’ils sont proches, ils n’ont cependant pas le même sens et représentent des usages différents. Le nomadisme décrit une connexion au réseau au coup par coup, avec un utilisateur qui change d’endroit et se reconnecte. L’outil le plus souvent associé à cette pratique est l’ordinateur portable qui translate en fait le poste de travail complet de l’utilisateur. On range dans cette catégorie les possibilités de retrouver l’ensemble de son environnement de travail par une carte, comme avec les Sun Ray de Sun Microsystems ou certains clients légers.

La mobilité permet une connexion au réseau à tout moment, que ce soit à partir d’un matériel connecté en permanence dans un entrepôt ou d’un équipement mobile se connectant durant un voyage en train.
Là, ce sont principalement les équipements de type « machine to machine » ou les PDA, smartphones ou téléphones mobiles qui sont concernés. Les différences entre les matériels employés et les situations d’utilisation permettent de créer une coupure nette entre les deux domaines. D’un côté des équipements plus proches des clients lourds, de l’autre des interfaces légères, qui imposent la brièveté des informations transmises et une multiplicité des possibilités d’accès. Ces différences ont aussi un impact sur les infrastructures sous-jacentes à la mise en œuvre des deux types d’usages.

Glofiish-X500-hq35933_Cop11.gifLe matériel de RIM a été pionnier et a permis aux cols blancs de découvrir les applications mobiles.
Étienne Didelot, en charge du business développement des solutions de mobilité chez Telindus, une SSII spécialisée dans les questions de réseaux et de sécurité, explique : « Jusqu’à présent, ce que l’on a vu représentait surtout des extensions des réseaux existants dans l’entreprise avec l’ajout de briques dédiées. Aujourd’hui, ces extensions sont plus intégrées avec le reste du réseau existant, avec le placement d’une gateway en DMZ (zone démilitarisée ou zone tampon ou d’isolation des serveurs du réseau extérieur) spécialisée comme VPN SSL ou IPSEC. En fait, l’infrastructure ne pose plus de problème particulier lors de la mise en œuvre de solutions mobiles. »
Un interlocuteur chez Sybase ajoute : « Chez nos clients, nous rencontrons deux cas de figure : les entreprises avec un nouveau projet qui développent une application mobile from scratch, celle-ci hébergée sur un serveur avec des API aux applications du SI existants. Deuxième cas, dans un cadre technologique de plus en plus mature, la solution est une extension mobile du SI qui repose sur les schémas d’architecture trois tiers ou des architectures de services. »
De ce fait, les solutions se sont principalement développées dans les grands comptes. Étienne Didelot précise : « La mobilité est ressentie souvent comme un besoin stratégique avec une corrélation entre les besoins et le prix. En revanche, du fait de l’existant, les infrastructures sont complexes. Il faut réaliser de l’intégration et de la sécurisation avec des problèmes annexes comme la refonte de DMZ ou la configuration de firewall. »

Mais quel que soit le cadre, mobile ou nomade, le but est souvent le même d’où parfois une certaine confusion. Ce but est de fournir, quel que soit le réseau ou la technologie, la possibilité de transmettre les informations pertinentes en montant et en descendant, et d’autoriser une collaboration entre différents employés de la société. On voit ainsi se forger deux axes principaux d’usages de la mobilité : le besoin d’information dans un cadre allégé en dehors de l’entreprise et le besoin de transmettre des informations et des données à d’autres personnes de l’entreprise pour des questions de validation d’action à effectuer, de reporting ou de synchronisation d’informations métier.
Il est possible de simplifier encore cette typologie d’usage avec une séparation entre application transversale ou horizontale, comme la réception de mails, de rapports, d’alertes et des applications verticales liées à des besoins métier spécifiques et dans des secteurs bien déterminés. La première catégorie, selon Étienne Didelot, représente « la mise en mobilité d’applications métier sur des plates-formes standard ».


Des usages verticaux répandus

Pour François Messager, responsable des solutions de mobilité et de travail collaboratif chez NextiraOne, « Les applications verticales, ou métier, sont en avance dans les utilisations principalement pour tout ce qui concerne la maintenance ou la gestion des forces de vente ou d’équipes sur le terrain. » Les transports, le secteur médical, la logistique et la distribution sont les autres secteurs consommateurs de solutions de mobilité. Étienne Didelot le confirme : « Dans ces secteurs, les utilisations n’ont pas attendu d’avoir les outils pour se lancer dans une utilisations sur des terminaux spécifiques. » Certains constructeurs se sont spécialisés dans la fourniture de ce type de terminaux spécifiques à des secteurs métier. Gotive ou Psion Teklogix en sont des représentants médiatiquement connus. Certaines applications, tel le projet Acelio à la SNCF, sont des projets emblématiques de déploiements larges sur des technologies mobiles dans des secteurs métier.
Des sociétés de services se sont d’ailleurs spécialisées dans la mise en œuvre de solutions dans ces secteurs d’activité. Rayonnance Technologies s’est d’ailleurs taillée une réputation flatteuse dans le milieu sur ces dossiers.


Une ouverture vers des publics plus larges

L’ouverture vers des publics plus larges touche surtout une population de managers et apporte de nouvelles applications dans la mobilité. La première étape de l’adoption de ces outils par cette population a été de retrouver le premier outil de communication actuel, le courrier électronique, sur des appareils mobiles. En un sens, Palm, BlackBerry et consorts ont permis aux cadres dirigeants de découvrir les possibilités de la mobilité et de retrouver les éléments pertinents de son environnement de travail en dehors de son bureau. Mais comme le constate François Messager, chez NextiraOne : « La mobilité ne se résume pas à du push mail, un accès à une base de données ou à des petites applications de collaboration. »


Pourquoi des PDA ?
Alors que les ordinateurs portables deviennent quasiment les matériels les plus vendus dans le cadre d’une informatique nomade, les projets de mobilité choisissent le plus souvent d’autres terminaux plus petits comme des PDA, des smartphones ou encore plus simplement des téléphones mobiles avec des connexions de troisième génération. Ce choix s’explique par différents facteurs. Tout d’abord, le coût des terminaux choisis est bien moindre que celui d’ordinateurs portables, a fortiori de tablets PC. À l’usage, ces derniers se révèlent fragiles et demandent donc des fonctions de support beaucoup plus importantes que pour des terminaux plus petits. Par ailleurs, les personnels sur le terrain sont parfois dans des conditions assez extrêmes où les ordinateurs portables se montrent peu pratiques. Les PDA et autres téléphones mobiles ont aussi l’avantage d’être des matériels connus des employés sur le terrain car souvent utilisés personnellement. Ils font moins peur que des ordinateurs qui peuvent apporter une sorte de blocage psychologique du type « c’est un ordinateur donc c’est compliqué, donc je ne saurais pas m’en servir ». L’autre avantage des PDA est de valoriser l’agent de terrain dans sa mission de terrain. En relation avec le client, l’employé montre ainsi sa technicité et trouve son travail valorisé. En effet, si les ordinateurs portables se banalisent, ce n’est pas encore le cas des terminaux mobiles de ce type !



Ces applications sont cependant les premières visibles dans le domaine. Aujourd’hui, ces fonctions s’élargissent sous la pression de deux éléments. Tout d’abord, on assiste à une convergence des terminaux entre ceux utilisant de la donnée et de la voix. Ainsi, des opérateurs de téléphonie proposent désormais des services conjuguant services de données et de voix. Comme le fait remarquer Étienne Didelot : « C’est souvent l’occasion pour migrer de solutions de collaboration ou de messagerie exotiques vers des solutions plus connues. Lorsque les besoins dépassent ceux-là, les cadres dirigeants s’équipent d’ordinateurs portables avec des liaisons GPRS pour communiquer par un VPN. C’est pour cela que nous ne ressentons pas de gros besoins actuellement sur le secteur. »
L’entrée en jeu d’opérateurs et de constructeurs apportant de nouvelles fonctions étoffe cependant les possibilités offertes dans le monde collaboratif ou de la gestion.
Microsoft joue par exemple la carte de la collaboration et de la convergence avec une solution prévue pour le premier trimestre de l’année prochaine. Celle-ci s’appuiera sur la prochaine version d’Exchange pour unifier la communication et la messagerie d’un employé, qui pourra accéder à ses différents outils de communication de manière transparente. La solution repose sur une indication de la présence de la personne et du média qu’il utilise. Le transport des informations est alors optimisé pour être reçu sur ce média.
p.2
Réduire
RSA-SecurID-Tokens-new35717.gifLa sécurisation des solutions mobiles peut recourir à des moyens drastiques comme l’authentification forte, telle que SecurID de RSA.
La mobilité vue par l’éditeur de Redmond dépasse de loin ces simples fonctions. Elle vise à reproduire le plus possible l’environnement de travail de l’employé en l’adaptant à l’interface sur laquelle il est présent. Cette possibilité est sous-tendue par l’extension que représente Windows Mobile 5.0 avec l’environnement Windows présent dans l’entreprise. Dans cette logique, il ne s’agit pas d’envoyer tous les éléments de l’application vers le terminal choisi par le collaborateur, mais d’adapter les informations à échanger pour qu’elles soient reçues de la manière la plus pertinente et la plus utile pour celui qui les demande. <br>Dans ce cadre, les opportunités pour de nouvelles applications sont énormes. Les éditeurs, mais aussi les opérateurs n’ont pas manqué de le remarquer. Ainsi, Orange et SAP ont signé un partenariat qui permet aux abonnés de l’opérateur ou aux clients de SAP de disposer d’une solution qui les autorisent à recevoir directement sur leurs terminaux portables des rapports.<br>Par exemple, un contrôleur de gestion reçoit sur son PDA un rapport de vente insatisfaisant : il appelle directement le directeur commercial lui demandant des explications. Ce dernier peut alors décider d’une promotion pour augmenter les ventes. Par la même occasion, il peut pousser une alerte vers les équipes commerciales leur indiquant cette nouvelle promotion sur leur téléphone mobile ou sur leur équipement mobile. Dès les premiers retours de cette campagne, il peut alors renvoyer un rapport vers le contrôleur de gestion lui indiquant les nouvelles données commerciales et les résultats de la campagne. <br><br>On pourrait multiplier les exemples de ces nouveaux types d’applications se mettant en place dans les entreprises. L’arrivée de la vidéo et de l’image sur les équipements mobiles devrait donner lieu à de nouveaux usages encore inconnus dans le domaine.<br><br><br><span class=" dosinter=""> Encore des freins à l’adoption ?

L’extension du système d’information vers des terminaux mobiles se heurte tout d’abord à l’adaptation des applications à l’interface des équipements. Pour François Messager : « Il existe toujours la limite de l’affichage des applications. » Étienne Didelot renchérit : « Il existe un problème évident d’ergonomie. Les applications mobiles doivent donc répondre à des besoins précis pour des personnes précises. Ce n’est pas un frein véritable sur l’adoption des solutions, mais cela reste un critère important de choix. »

Outre l’ergonomie, la bande passante a été longtemps une limitation à l’adoption des solutions. Il est vrai qu’il n’est guère agréable d’avoir à télécharger des mails en GPRS à moins d’avoir beaucoup de temps devant soi ou d’être nostalgique des débits du RTC des débuts d’Internet. La 3G et EDGE, ainsi que les générations futures, devraient à terme rapidement régler le problème de la bande passante, éliminant du même coup certaines questions concernant la performance des applications mobiles. Les informations à descendre ou à monter doivent être adaptées au  débit disponible pour être rendues sur des équipements mobiles. Chez Sybase, on est davantage optimiste encore : « La bande passante est là ! »

Autre question cruciale, celle des coûts de communication induits par ce type de solution. Ce problème est en passe d’être réglé. Les opérateurs proposent aujourd’hui des solutions sur des budgets raisonnables (aux environs de 70 euros par mois et par utilisateurs). Étienne Didelot indique cependant qu’il faut prendre en compte tous les coûts avant de se lancer dans le projet : « Il faut ajouter aux coûts télécoms, le prix des terminaux, la maintenance, le support. »


Et la sécurité ?

Dans les environnements mobiles, et principalement ceux utilisés par les cadres dirigeants, il est crucial que les échanges d’information soient pleinement sécurisés. Les informations peuvent être confidentielles ou revêtir une importance forte pour l’entreprise. L’augmentation de la performance apportée par une augmentation de la bande passante autorise la mise en place de VPN de manière assez facile. Pendant longtemps, cette solution, gourmande en ressources, était dédaignée du fait de performances insuffisantes. Étienne Didelot remarque : « En règle générale, plus on est sûr et moins la solution est pratique ou performante. Il faut placer le curseur au bon endroit. Pour répondre à la question, il existe deux cas de figure : on utilise une mise en mobilité très intégrée, comme celle proposée par Nokia, et c’est l’application qui se charge de la sécurisation, ou on utilise une solution plus ouverte comme un VPN IPSEC ou SSL. » Sybase propose une plate-forme totalement sécurisée. Elle supporte des VPN à plusieurs niveaux sur le terminal lui-même et assure la sécurité de la donnée lors de son transfert et au niveau des applicatifs. Utilisant les ressources de la solution Afaria, la donnée est sécurisée sur le terminal, cryptée pendant son transport. La solution autorise aussi la destruction de la donnée concernée en cas de perte ou de vol. La solution supporte FIP 140 au niveau 2 et peut s’intégrer avec la solution d’identification forte SecurID de RSA. Cet exemple est là pour démontrer qu’il est possible d’être quasiment « ceinture et bretelle » en ce qui concerne la sécurité d’une solution mobile. La plupart des projets ne méritent cependant pas un tel luxe de précaution.


De véritables bénéfices ?

Le principal frein qui demeure semble la faible démonstration de l’apport de valeur de tels projets pour des populations autres que celles de terrain. Les applications actuelles restent encore réservées aux VIP, avec des PDA pour cols blancs. François Messager explique : « Les clients cherchent encore la valeur de tels projets et demandent des proof of concept. Il reste encore une part d’évangélisation à réaliser. » Pour Étienne Didelot, « La technologie est là, mais les demandes sont encore timides. Il est possible que le besoin ne soit pas vraiment là, même si une demande d’améliorer la réactivité se fait jour. »
Au final, les technologies sont prêtes et ne représentent plus une contrainte pour retrouver un véritable environnement de travail dans un environnement mobile. Les applications sur le terrain ne manquent pas mais elles restent cantonnées actuellement dans certains secteurs métier bien précis. Des crises possibles, comme une épidémie de grippe aviaire dans les pays occidentaux, pourraient révéler leur véritable valeur dans le monde de l’entreprise. Les contraintes de réglementation et de conformité à des lois peuvent aussi être un moteur d’une évolution plus rapide de la mobilité dans le secteur de la gestion du fait d’une contrainte de traçabilité de plus en plus importantes des informations et des actions effectuées par les employés d’une entreprise. Enfin, la convergence de plus en plus évidente entre l’informatique employée dans le cadre professionnel et dans un cadre personnel devrait aussi jouer pour une extension des projets de mobilité même pour les cadres des fonctions de gestion.

Un exemple d'application trois tiers : Lavance dans la mobilité !

LavancePortique35835_Copi14.gifLavance est une PME spécialisée dans les appareils de lavage de voitures dans les stations services. Une de ces activités principales consiste en la maintenance des portiques de lavage qu’elle vend dans les stations. Jusqu’à présent, les 70 techniciens de l’entreprise consignaient leurs rapports d’intervention sur des formulaires papier et les restituaient par téléphone auprès du service de support qui les ressaisissait pour les placer dans le système informatique. Devant le temps perdu et les erreurs toujours possibles, Pascal Bizouard, le DSI de Lavance, a cherché une solution pour automatiser ce processus. Son choix s’est porté sur une solution de mobilité. « J’avais entendu parler d’une application similaire avec des problématiques proches chez Chronoflex, une entreprise qui distribue des flexibles. Nous sommes allés voir et nous nous sommes lancés ».

Techniquement, la solution se présente comme une application trois tiers : un PDA pour la restitution qui se connecte à un serveur middleware qui attaque l’application. Pour la sécurité et la disponibilité, le serveur est répliqué. Pascal Bizouard précise : « La base est embarquée dans l’application, un logiciel spécifique de SAV qui attaque directement le serveur de mobilité. » L’application a été enrichie pour que le technicien n’ait pas à écrire de texte mais juste à cocher des cases et cliquer sur des boîtes contextuelles. La solution se synchronise à chaque connexion, ou toutes les demi-heures, présentant ainsi une connexion en quasi temps réel vers le système d’information de Lavance. Les commentaires figurent à la fin du formulaire juste avant la signature du client. Ce formatage a été assez simple mais nécessaire. Les commentaires se font à partir d’une liste déroulante avec des clics pour éviter d’avoir à écrire. Ce formatage en arbre provient directement des retours du terrain et des techniciens qui retrouvent ainsi leur manière de travailler dans l’application.
Le choix du terminal a eu son importance. Pascal Bizouard précise : « Au départ, nous étions partis sur des tablets PC. Le prix et la casse plus importante nous ont fait reculer pour aller vers des PDA. Mais en durci ou en semi durci, les prix se révélaient tout aussi prohibitifs. Nous sommes donc partis sur des PDA classiques. » La solution fonctionne maintenant sur des SPV M 3000, l’équivalent des Qtek 9100.
Le projet a été rendu possible par les offres de prix très agressives de l’opérateur Orange. L’abonnement utilisé est même pour une part surdimensionné et n’est pas totalement utilisé. « Les fichiers transitant par ce réseau sont en XML et ne pèsent pas lourds, au maximum 3 ko », précise le DSI de Lavance. De ce fait, les temps de réponses sont de très bons niveaux. « Au maximum 5 secondes », explique avec fierté Pascal Bizouard. Un rien sur le réseau EDGE utilisé !
L’application et le matériel ont été bien accueillis. « Nos techniciens sont de niveau “Bac +  2”, plutôt jeunes. Ils ont très bien acceptés la solution. Certains avaient d’ailleurs ce type de matériels à titre personnel », précise-t-il encore.

Les bénéfices de la solution ont été assez faciles à démontrer. « Les techniciens gagnent désormais près d’un quart d’heure par intervention en n’ayant plus à appeler le support. Les erreurs sont moindres aussi. Multiplier par les 70 techniciens, il n’y a pas “photo”, le gain par rapport au budget investi est immédiat. Celui-ci était de l’ordre de 80 000 euros », poursuit Pascal Bizouard. La solution est en production sur la moitié des techniciens. Pascal Bizouard pense l’étendre à d’autres secteurs de l’entreprise.

Seul point négatif noté, la taille de l’écran qui empêche une véritable customization de l’application et de la signature client. « Nous réfléchissions pour trouver un compromis entre le tablet et le matériel actuel pour agrandir les écrans. Peut être du type Origami ? Certains constructeurs se lancent. Nous regardons. »
p.1
Réduire
DÉVELOPPEMENT DotNet
Enfin un treeview virtuel en code managé
Par Frédéric Millot - Copyright L'Informaticien, tous droits réservés

Version DotNet du célèbre Virtual TreeView, le GeniusTreeView, développement français en shared source, permet de présenter en arborescence un volume de données infini. Avec en prime une très grande richesse fonctionnelle.

Ceux qui se sont déjà confrontés au problème le savent bien : rien n’est plus délicat que de présenter un gros volume de données dans une arborescence. Pourquoi cette difficulté ? Parce que les contrôles d’arborescences – disons désormais les « treeviews » – disponibles dans le commerce, ou déjà intégrés aux palettes d’outils des principaux IDE ont une gestion mémoire conservatrice, en particulier sous DotNet. Ils gardent trace de toutes les données qu’ils contiennent, notamment celles qui ne sont pas affichées, et parfois avec moult métadonnées. Dans le cas d’un contrôle simple, comme peut l’être une zone d’édition ou d’un contrôle complexe mais destiné à ne comporter qu’un faible volume d’informations, cette approche de la gestion mémoire est recommandable, parce qu’au final elle expose au développeur plusieurs approches de traitement des contenus. Mais dans le cas de contrôles appelés à contenir d’importants volumes de données, plusieurs dizaines de milliers d’enregistrements par exemple, cette gestion mémoire devient impraticable, tout simplement parce que les temps de réponse dépassent la minute.

Avez-vous jamais essayé de remplir une simple liste déroulante avec plusieurs dizaines de milliers d’éléments ? Sur une configuration véloce (processeur double cœur, DDR2), l’exécution de la boucle de population suivante prend déjà près de 15 secondes : 

private void button1_Click(object sender, EventArgs e)
{
 int i;
  for (i = 0; i < 65000; i++)
   listBox1.Items.Add(i);
}


Difficile pourtant de faire plus simple, d’autant que les données restent dans cet exemple de purs « objects », sans aucun traitement explicite ni sur eux-mêmes ni sur leur caractère d’éléments contenus. Et quand on passe cette fois au même listage dans un treeview ordinaire (celui de la palette de Visual Studio 2005 par exemple) comme dans la boucle suivante, le temps d’exécution augmente cette fois à 260 secondes, c’est-à-dire plus de 4 minutes. Oui, vous avez bien lu !, 4 minutes entre le moment où la boucle démarre et le moment où les lignes apparaissent dans l’arborescence.

private void button1_Click(object sender, EventArgs e)
{
 int i;

  for (i = 0; i < 65000; i++)
   treeView1.Nodes.Add(i.ToString());
}


Alors, à moins de recourir à une boîte de message du type « Chargement des données en cours, vous avez le temps de prendre un voire deux cafés pendant ce temps, puis de répondre à tous vos e-mails. Veuillez (beaucoup) patienter… », il est difficile d’implémenter le chargement d’un référentiel métier dans ces conditions. Surtout que, comme vous l’aurez remarqué, nous avons borné nos boucles à un maigre 65k éléments, et cela pour une raison simple : nombre de treeviews implémentent encore une gestion de leur adressage mémoire sur 16 bits (216 = 65 536).
Il serait pourtant dommage de limiter l’usage des treeviews à de petites quantités d’informations comme le font la plupart des applications. L’affichage des données en arborescence offre en effet bien des avantages. D’une part, elle permet de représenter leur hiérarchisation de façon claire. Or, il est de plus en plus fréquent que l’information soit structurellement hiérarchisée, ne serait-ce qu’avec l’émergence des formats dérivant de XML. D’autre part, elle autorise la navigation dans de grands volumes en n’ayant à l’écran que les données utiles. L’exemple type, c’est le parcours du registre de Windows. En ne déroulant que les bonnes clés, on parvient beaucoup plus vite à l’essentiel. Ces deux grands avantages en induisent d’autres d’un point de vue fonctionnel : traçage des informations, sauvegarde partielles automatisées, etc. Tous justifient qu’on n’en démorde pas : dans un nombre important de cas, et surtout dans les océans d’enregistrements, les treeviews s’imposent. Alors, comment faire ?

La solution a été trouvée avec les treeview virtuels. L’idée de cette virtualisation, c’est de faire en sorte que le treeview ne sache rien des données qu’il affiche. Il ne sert réellement que de transformateur de présentation sur les données – données qu’il n’a donc pas besoin de stocker. Remarquez d’ailleurs que cette élégance conceptuelle a quelque chose d’évident quand on songe que, lorsque les données ne sont pas créées dynamiquement, le fait de les passer à une listbox ou à un treeview ordinaire revient à les conserver deux fois en mémoire…
C’est Mike Lischke qui, le premier, a eu cette idée. Son Virtual Treeview est une référence absolue dans le monde Delphi depuis de nombreuses années, à tel point que Borland l’utilise pour ses propres besoins, sans toutefois l’inclure dans la palette de ses IDE. Un des points saillants de Virtual Treeview, c’est le recours systématique aux pointeurs. Pour faire simple, à chaque nœud créé dynamiquement est associé un pointeur vers une zone de données utilisateur. Pendant l’exécution, la lecture comme l’écriture de données s’effectuent dans ces zones, indépendamment du treeview. Ce n’est que lorsque celui-ci doit afficher les données qu’il va chercher le contenu de ses nœuds dans les zones en question. Ainsi, par exemple, s’il n’affiche jamais les données des nœuds 10 000 à 12 000, le treeview n’ira jamais lire dans les zones correspondantes, qui seront donc restées vierges de tout traitement de présentation.

GTV01.jpgSur la démo livrée (avec ses sources), la création immédiate de un million de nœuds ne prend que 2,6 secondes. Seule la virtualisation permet un tel niveau de performances.
Seulement voilà, Virtual Treeview n’a pas été porté vers DotNet. Cela n’est-il pas lié au travail considérable que représente la réécriture d’un code ultra-optimisé, quasi exclusivement à base de pointeurs ? On sait que les pointeurs sont théoriquement interdits dans DotNet, mais on sait aussi que cette interdiction peut se contourner avec bonheur (cf. notre article sur l’optimisation du code non-managé dans l’Informaticien du mois dernier). Quoi qu’il en soit, un nouveau développement était nécessaire. Un ingénieur français, Pierrick Gourlain, s’est attelé à la tâche avec succès, et propose à la communauté un travail d’excellente facture, le Genius Treeview, dont il est l’auteur exclusif. Vous pouvez télécharger ce dernier gratuitement (licence Shared Source) sur GotDotNet, à l’adresse de son espace dédié : http://www.gotdotnet.com/workspaces/workspace.aspx?id=7ef34d38-d86e-497d-bc15-33edc8826729.
Comment fonctionne GeniusTreeView en pratique ? C’est ce que nous allons voir maintenant. Mais avant de commencer, sachez qu’avec lui, l’équivalent de notre chargement de 65k éléments prend moins de 1 seconde à configuration équivalente. Or, 1 < 260, et même très nettement (on passe à 4 secondes environ pour 1 million d’enregistrements), si bien que, grâce au GeniusTreeView, implémenter une présentation arborescente sur un large référentiel devient tout simplement possible. C’est donc un contrôle de grande valeur qui nous est proposé en licence libre, il faut le souligner.
En pratique, le point essentiel à retenir est que toute la virtualisation du GeniusTreeView repose sur une gestion événementielle déléguée. À chaque fois qu’un nœud de l’arborescence doit représenter une donnée à l’écran, un certain nombre d’événements sont déclenchés que l’application traite de façon appropriée. Ces événements forment autant de requêtes pour chaque caractéristique du nœud : le contenu textuel, la police, l’image associée, le formatage de l’ensemble de la zone d’affichage, etc. Comme de juste, seules les caractéristiques changeant d’un nœud à l’autre nécessitent que l’événement soit géré. Ainsi, pour un simple listage, seule la requête de contenu textuel devra être traitée. On voit donc que, si ces événements sont nombreux, et même s’ils sont tous traités pour chacun des nœuds, la charge ne représente au final que la somme des événements pour chacun des nœuds apparaissant à l’écran, c’est-à-dire une centaine au grand maximum. D’où la très grande rapidité du contrôle, indépendamment du volume des données.
Voici quatre exemples de traitement d’événements de contenu déclenchés par GeniusTreeView et gérés par l’application hôte. Le premier consiste à donner au treeview les textes que les nœuds doivent afficher :

void _OnGetNodeText(object Sender, NodeTextEventArgs e)
{
  int i;

  // On ne traite que les noeuds n’ayant pas encore été traités.
  if (e.Text == null || e.Text.Length == 0)
  {
    i = (int)e.Node.Data;
    // Noeuds de premier niveau.
    if (e.Node.Level == _ciNODE_LEVEL_ONE)
      e.Text = _entries.ArrayOne[i].DataContent;
    else
      e.Text = _entries.ArrayTwo[i].DataContent.ToString();
    }
  }
}

Pour optimiser le traitement, on commence par vérifier que la valeur texte associée au nœud courant est vierge ou nulle, car si elle ne l’était pas, il n’y aurait pas besoin de lui affecter un texte. L’événement n’est donc géré que pour les nœuds qui n’ont jamais encore été affichés. Dans cet exemple, tiré d’une application réelle, on fait par ailleurs un test sur le niveau du nœud. Cet index est « 1-based » ; autrement dit, il n’existe qu’un seul nœud – virtuel – de niveau 0. Les nœuds parents sont de niveau 1, leurs enfants de niveau 2, les enfants de ceux-ci de niveau 3, etc. Dans notre exemple, nous n’avions à traiter que deux niveaux si bien que, pour des raisons de performances, nous n’avons pas eu recours à des constantes énumérées.
Remarquez également qu’un type personnalisé est passé en paramètre au délégué : NodeTextEventArgs. Vous verrez aussi dans les méthodes qui suivent que nombre d’autres événements délégués disposent de leur propre type personnalisé, ces classes n’exposant en général qu’un seul membre. L’avantage de cette approche, c’est qu’elle optimise le fonctionnement interne de la mécanique de gestion événementielle. Les événements étant déclenchés en rafale à chaque rafraîchissement de l’affichage de l’arborescence, il aurait été dommage d’alourdir celui-ci par des passages de paramètres inutiles.
Voici maintenant une méthode utilisée pour gérer l’événement OnBeforeNodePainting. Typiquement, on l’utilise pour préparer les outils avec lesquels les opérations de dessin du texte et/ou des images associés au nœud seront effectuées. Dans notre cas, toujours en fonction du niveau du nœud, nous préparons les pinceaux qui vont déterminer les couleurs du texte :

void _OnBeforeNodePainting(GeniusTreeView Sender, PaintNodeEventArgs e)
{
  // Le texte en gris pour tout ce qui n’est pas de premier niveau.
  if (e.Node.Level != _ciNODE_LEVEL_ONE)
    e.Info.ForeColor = new GeniusLinearGradientBrush(Color.Gray);
  else
    e.Info.ForeColor = new GeniusLinearGradientBrush(Color.Black);
}

Notez que le paramètre événementiel utilisé ici est un PaintNodeEventArgs, qui encapsule un type Genius.Controls. TreeView.PaintInfo. Celui-ci expose un certain nombre de membres, parmi lesquels ForeColor, un pinceau personnalisé de type GeniusLinearGradientBrush. Cet exemple illustre comment les possibilités graphiques offertes par les nœuds du GeniusTreeView (voir nos captures d’écran) sont disponibles plus directement qu’à travers la seule API DotNet, ce qui permet là encore d’optimiser le traitement dans ce segment ô combien stratégique pour les performances qu’est le dessin des contenus.
Petite remarque en passant, on s’aperçoit grâce au treeview que la méthode Graphics.DrawString de l’API System.Drawing de DotNet dessine fort mal les textes. L’espacement entre les lettres se révèle aléatoire, ce qui à l’écran donne des résultats visuels parfois décevants sur de longs textes de nœuds utilisant certaines polices proportionnelles dans de petites tailles. Pour remédier à ce problème d’origine Microsoft, Pierrick Gourlain réécrit actuellement une partie de la gestion des couleurs du texte, afin d’utiliser la classe TextRenderer et non plus GraphicsDrawString ; mais il s’agit là d’une modification lourde car la couleur est alors déterminée par un type Color et non plus par un type Brush.

Passons à la gestion des polices de caractères avec la méthode suivante :

void _OnGetFontNode(GeniusTreeView Sender, NodeFontEventArgs e)
{
  int i;

  // Ne s’applique qu’aux noeuds de premier niveau.
  if (e.Node.Level == _ciNODE_LEVEL_ONE)
  {
    i = (int)e.Node.Data;
    // Ne met en gras que les noeuds de premier niveau dont le texte
    //   équivaut à celui de ses noeuds enfants.
    if (_entries.ArrayOne[i].DataContent ==
      _entries.ArrayTwo[i].DataContent.ToString())
    {
      e.Font = new Font(Font.Name, Font.Size, FontStyle.Bold);
    }
  }
}

GTV02.jpgL’approche graphique du dessin des contenus autorise toutes les possibilités fonctionnelles, comme ici le dessin de barres de progression différenciées pour chaque nœud.
Pour rester dans la simplicité et continuer sur notre exemple, le choix de cette police s’opère ici en fonction du niveau du nœud, et à certaines conditions seulement. Mais là n’est pas l’essentiel. On voit ainsi qu’il suffit de gérer l’événement pour pouvoir affecter à tout nœud une police qui lui soit propre, soit en recréant une instance pour l’occasion, soit, tout simplement, en dérivant la police par défaut pour qu’elle adopte les caractéristiques souhaitées, comme ici une simple mise en gras du texte. Et, en toute logique, le paramètre événementiel n’expose précisément que ce type Font.
p.2
Réduire
Voici maintenant, un dernier petit exemple montrant qu’il est possible de personnaliser le comportement du treeview selon les besoins de l’application :

void _OnAfterExpand(GeniusTreeView Sender, NodeEventArgs e)
{
  // Selectionne le premier noeud enfant d’un noeud déroulé.
  if (e.Node.IsExpanded)
    this.SelectNode(e.Node.First);
}

Dans cette petite routine, on demande au Treeview de sélectionner immédiatement le premier nœud enfant d’un nœud parent qui aurait été déroulé. Le paramètre événementiel NodeEventArgs encapsule un simple type INode. Ce type interface englobe toutes les caractéristiques d’un nœud : le nombre de ses enfants, son numéro d’index parmi ses nœuds frères, plusieurs propriétés (sélectionné, déroulé, visible), et bien d’autres encore… Parmi ces caractéristiques, la principale est Data, à savoir la donnée utilisateur (de type object) grâce à laquelle le lien peut être fait directement entre le treeview et les données métiers.
Vous avez sans doute remarqué dans les méthodes précédentes la présence d’instructions du type :

  i = (int)e.Node.Data;
  if (_entries.Array[i].DataContentOne...     

C’est là en effet que tout se joue, et c’est donc là le point essentiel à bien intégrer pour tirer le meilleur profit de GeniusTreeView. C’est grâce à Data que vous allez pouvoir mapper les nœuds de l’arborescence avec les informations que vous voulez lui faire présenter. Comme Data est de type objet, toutes les possibilités de mappage direct ou indirect sont envisageables, y compris des critères calculés. Vous pouvez même concevoir des mappages bijectifs, où le contenu des données métier peut être utilisé pour accéder aléatoirement à certains nœuds.
Dans notre exemple, le contenu de Data est un entier qui sert d’index pour retrouver des données dans des tableaux. C’est une forme d’optimisation du mappage, optimisation bien pratique lorsqu’il faut traiter de très importants volumes de données sans nécessairement leur appliquer de traitements graphiques complexes. Ainsi, voyez la méthode suivante, grâce à laquelle le treeview est rempli au chargement de l’application :

public int Populate()
{
  int i, j;
  int iLevel1, iLevel2;
  Entry entry;

  try
  {
    // Vide le treeview de son contenu.
    this.Clear();
    // Crée une entrée locale pour gérer plus facilement la création de
    //   noeuds enfants.
    entry = new Entry();
    // Détermine la volumétrie du tableau.
    j = _entries.Array.Length;
    // Initialise le dessin du treeview.
    this.BeginUpdate();
    //**** CREATION DES NOEUDS ********
    // Parcours le tableau des données métier.
    for (i = iLevel1 = iLevel2 = 0; i < j; i++)
    {
      // Ajoute les noeuds selon le type des entrées.
      // Ici un n?ud de premier niveau
      if (_entries.ArrayOne[i].Type = ciDATA_TYPE_ONE)
      {
        if ((entry.Node = this.Add(null, iLevel1++)) == null)
          return (-1);
      }
      // Ici un noeud de second niveau, ajouté au dernier n?ud de premier
      //   niveau créé.
      else
      {
        if (this.Add(entry.Node, iLevel2++) == null)
          return (-2);
      }
    }
    return (0);
  }
  catch (Exception)
  {
    return (-128);
  }
  finally
  {
    // Finalise le dessin du treeview quoi qu’il arrive.
    this.EndUpdate();
  }
}

GTV03.jpgLe GeniusTreeView peut aussi s’utiliser en grille avec sources de données. On voit ici les possibilités de personnalisation des en-têtes de colonnes, et l’intérêt des affichages déroulants pour l’occupation de l’espace écran.
Dans cet exemple, retranscrit et simplifié, d’une application fonctionnelle, nous avons choisi la façon la plus simple de mapper les données métier sur le treeview. À la création des nœuds, nous assignons à INode.Data un simple entier qui représente à la fois son index absolu dans son niveau et l’index des données dans leur tableau d’origine. Ce faisant, le 430e nœud de premier niveau correspond à la 430e entrée du tableau ArrayOne, cependant que le 67e nœud de niveau 2 correspond à la 67e entrée du tableau ArrayTwo. Simple, efficace, élégant. Notez que, pour des raisons liées à la structure des données traitées et pour rester dans une logique et une arithmétique claires, nous n’avons pas repris la remise à zéro de l’indexation des nœuds de niveau n+1. Dans GeniusTreeView, comme d’ailleurs dans l’immense majorité des treeviews du marché, le 3e nœud enfant du 6e nœud de premier niveau a pour index 2 (« 0-based »). De même pour le 3e nœud enfant du 4e nœud de premier niveau, etc. Cette réindexation est beaucoup plus facile pour le parcours séquentiel d’une arborescence complexe, mais dans notre cas le mappage direct avait l’avantage d’être implicite, donc optimisé.

Ainsi, dans la boucle précédente, on voit que la création d’un nœud via la méthode Add du GeniusTreeView ne requiert que deux paramètres : le nœud parent – ou null lorsqu’il s’agit d’un nœud de premier niveau – et l’objet à enregistrer en tant que INode.Data. Comme de juste, l’opération se fait dans le cadre du rafraîchissement du contrôle. Voilà pourquoi on recourt très classiquement à un EndUpdate dans une clause finalize.
Voyons maintenant trois points indispensables lorsqu’on travaille avec un treeview : la recherche d’un nœud, le parcours séquentiel de l’arborescence et la sérialisation du contenu. Pour chacun de ces trois points, GeniusTreeView simplifie les opérations à l’extrême. Ainsi, pour la recherche et la mise en surbrillance d’un nœud en fonction de son contenu textuel, deux approches sont disponibles. La première consiste à utiliser la recherche incrémentale, qui comme dans beaucoup de contrôles sophistiqués déplace la sélection interne du treeview à mesure que l’on presse les touches du clavier. La seconde consiste à lancer une recherche simple puis de gérer la sélection manuellement, comme dans la méthode suivante :

public int SearchInContents(string strSearch)
{
  INode selectedNode;

  // Recherche le pattern dans les noeuds de l’arborescence.
  selectedNode = this.Search(strSearch);
  // Retourne si la recherche est infructueuse.
  if (selectedNode == null)
    return (-1);
  // Déroule le noeud s’il a des enfants.
  if ((selectedNode.State & NodeState.HasChildren) ==   
    NodeState.HasChildren)
    // Empêche que le noeud soit réenroulé s’il était déjà déroulé.
    if (!selectedNode.IsExpanded)
      this.ExpandCollapseNode(selectedNode);
  // Place la sélection sur le noeud.
  this.SelectNode(selectedNode);
  // Affiche le noeud.
  this.ShowNode(selectedNode, true);
  // Donne le focus au treeview.
  this.Focus();
  return (0);
}

S’il existe un nœud correspondant au pattern recherché, on veille à ce que s’il a des nœuds enfants, il soit déroulé. Ensuite, on positionne le pointeur interne de sélection sur le nœud en question, on fait défiler l’arborescence pour qu’il s’affiche et on passe le focus au contrôle. Rien que de très évident.
Pour ce qui est du parcours de l’arborescence, là encore, les choses sont d’une grande efficacité puisque l’interface INode implémente IEnumerable. De ce fait, il suffit de la simple boucle suivante :

  // Parcourt l’arborescence de haut en bas.
  foreach (INode iNode in this.Nodes.GetNodes(true))
    ...
   

Pour pouvoir grosso modo tout faire sur les nœuds, dans la mesure où c’est à partir du type INode qu’on accède à l’ensemble des propriétés de chacun des nœuds. Il serait par exemple facile de sérialiser le contenu d’une arborescence au format UTF-8 en captant le contenu textuel et le niveau de chacun des nœuds qui la composent.

Enfin, puisque l’on parle de sérialisation, sachez que Pierrick Gourlain a prévu un mécanisme qui permet d’enregistrer directement toute instance d’objet GeniusTreeView. Réduites à leur plus simple expression, les deux petites méthodes de sérialisation / désérialisation intégrales ressemblent à ceci :

public int GTVDeserialize()
{
  OpenFileDialog of;

  // Crée un dialogue Fichier > Ouvrir.
  of = new OpenFileDialog();
  // Initialise le dialogue.
  of.InitialDirectory = Application.ExecutablePath;
  // Affiche le dialogue et désérialise l’objet dans son entier.
  if (of.ShowDialog() == DialogResult.OK)
    new SerializationHelper(this).Load(of.FileName);
  return (0);
}

public int GTVSerialize()
{
  SaveFileDialog sf;

  // Crée un dialogue Fichier > Enregistrer.
  sf = new SaveFileDialog();
  // Initialise le dialogue.
  sf.InitialDirectory = Application.ExecutablePath;
  // Affiche le dialogue et sérialise l’objet dans son entier vers le
  //   fichier sélectionné.
  if (sf.ShowDialog() == DialogResult.OK)
    new SerializationHelper(this).Save(sf.FileName);
  return (0);
}

GTV04.jpgAutre exemple de personnalisation du treeview : un dialogue d’exploration reprenant le style et le fonctionnement Vista – le treeview est ici capturé sous Windows XP.
Voilà, les présentations sont faites ; en tout cas pour la mise en œuvre la plus élémentaire de ce très riche contrôle. Il ne vous reste plus qu’à découvrir le reste de ses riches possibilités. Car le GeniusTreeView autorise le drag and drop, l’approche OwnerDraw, l’édition directe dans les nœuds et les entêtes de colonnes, l’utilisation de l’arborescence en grille, avec ou sans source de données statique, le masquage de l’arborescence en chapitres séquentiels ou en boîte à onglets, etc. Une riche démo couvrant toutes ces fonctions est incluse dans le package de téléchargement (avec ses sources), ainsi qu’un système d’aide en ligne qui, lui, est encore à finaliser. Essayez-la, vous serez convaincus.   
p.1
Réduire
Logiciels libres :
Comment les qualifier pour l’entreprise ?

Par Yann Serra - Copyright L'Informaticien, tous droits réservés

Après avoir installé Linux sur tous ses serveurs, l’entreprise est acquise aux arguments des logiciels libres : ils sont aussi robustes que leurs équivalents propriétaires, moins chers et standardisent toutes les étapes d’une chaîne de travail. Reste à leur adosser les mêmes garanties que celles proposées par les éditeurs. C’est possible.

Une étude publiée cette année par l’ASS2L (Association des Sociétés de Service en Logiciel Libre) le revendique : les entreprises estiment désormais majoritairement que les logiciels libres leur apportent le bénéfice de l’indépendance ou, dit plus clairement, le moyen de se sortir de la tyrannie, tant financière que technologique, qu’imposent les éditeurs de solutions propriétaires. Un utilisateur témoigne : « Avec une solution Open Source, je peux dupliquer mon infrastructure logicielle sur toute ma batterie de matériels sans que ça ne me coûte plus cher ; et je réinvestis l’économie réalisée dans le développement de mes applications métiers, ce qui m’importe le plus. »

Pour Stéphane Fermigier, P-DG de la société Nuxeo (qui promeut un logiciel éponyme pour assurer la circulation des documents de travail au sein d’une structure hétéroclite), l’adoption de Linux sur les serveurs est consommée et celle des serveurs d’applications J2EE Open Source (JBoss, JOnAS), voire des bases de données libres (MySQL, PostgreSQL…) est pratiquement déjà acquise. « Les entreprises en sont maintenant au troisième stade de la mouvance, c’est-à-dire à évaluer les applications et progiciels libres pour remplacer les solutions propriétaires », dit-il. C’est un fait, les mœurs ont changé vis-à-vis des logiciels libres et il paraît désormais loin le temps où les directions générales pensaient que l’ouverture et la gratuité des produits Open Source laissaient supposé qu’ils n’étaient ni robustes ni performants. Didier Lamouche, P-DG de Bull, tranche : « En vérité, la qualité varie aussi bien parmi les projets Open Source que parmi les produits des éditeurs. Le débat entre les bons logiciels et les moins bons est universel et ne peut se corréler à celui entre l’Open Source et les éditeurs traditionnels. Ces deux axes de discussion ne se confondent pas, ils se croisent. »

Logiciels libres ou Open Source ?
Du point de vue de l’utilisateur final, les logiciels dits « libres » et ceux en « Open Source » reviennent pratiquement au même : ce sont des outils que l’on peut télécharger et utiliser gratuitement sur autant de machines qu’on le souhaite. Selon Boris Auché, chez Bull, « On préfère généralement utiliser le terme générique d’Open Source en entreprise, car il est moins militant, plus académique. Cela dit, la nuance existe dans l’étendue des licences disponibles et il convient de la connaître dès lors que l’on compte commercialiser une solution que l’on a développée à l’aide d’outils Open Source – ce qui est notamment le cas dans l’industrie.
Sur ce point, le prestataire partenaire doit être à même d’apporter toutes les garanties nécessaires pour que chacun reste dans la stricte légalité. »


Support : des prestataires existent

OpenSource1-02.jpgPour Kim Polese, CEO de SpikeSource, les mises à jour des logiciels libres paraissent trop fréquemment pour qu’un responsable informatique parvienne seul à maintenir l’efficacité de sa solution.
À ce propos, et toujours selon la même étude, le défaut que les entreprises trouvent aux logiciels Open Source est celui du manque de support. En effet, la possibilité d’acquérir gratuitement des solutions libres mène souvent à des erreurs d’évaluation : ce sont des logiciels, avec leurs atouts et leurs contraintes, avec leur facilité d’intégration ou non sur le système existant, avec leur support communautaire plus ou moins important. Se lancer tête baisser dans leur adoption peut souvent mener à commettre des erreurs. Selon Kim Polese, CEO de SpikeSource, « en 2005, il y a eu 6 700 mises à jour pour PHP, 2 965 pour Apache et 6 805 pour MySQL – versions corrigées et patches de sécurité inclus . » Avec un tel rythme de parutions, où toutes ne sont d’ailleurs pas pertinentes, les responsables informatiques ont à l’évidence besoin d’assistance pour maintenir dans le temps la qualité de leur système d’information. SpikeSource, justement, se propose de fournir les outils pour évaluer chaque mise à jour, avant et après installation. En confiant à un prestataire externe la mission de rechercher, de filtrer et de tester toute nouvelle version, une entreprise n’a ainsi plus à allouer du personnel à cette tâche peu productive, pour ne pas dire ingrate. En France, les prestataires qui représentent SpikeSource sont les SSLL Linagora et CorraTech.

À quoi correspond le support qu’offre un prestataire ?
Imaginons que vous souhaitiez développer une application pour vos besoins internes. Pour la développer et la faire tourner, vous allez le plus souvent avoir besoin d’une pile Java. Celle-ci correspond à un serveur d’applications autour duquel tourne une suite de modules, dont l’environnement de développement (basé sur Eclipse), la couche d’abstraction vers les bases de données, la gestion des transactions, le portail (sorte de squelette d’application qu’il ne reste plus qu’à adapter), etc. L’offre actuellement la plus en vue est la suite Open Source JEMS de JBoss (filiale de l’éditeur Red Hat). On peut la télécharger (http://labs.jboss.com/portal/), l’installer et l’utiliser gratuitement sur autant de postes qu’on le souhaite sans aucune limite – ni fonctionnelle, ni temporelle.
En revanche, on n’a pas forcément le talent suffisant pour en tirer seul le meilleur parti. C’est à ce moment qu’intervient le prestataire, ici partenaire de JBoss, si ce n’est JBoss lui-même lequel est présent en France. Celui-ci propose à l’entreprise support et conseil pour accompagner votre développement à hauteur d’un forfait de 25 000 euros par an pour quatre processeurs (ce qui fait furieusement penser à de la vente de licence par nombre, mais JBoss s’en défend). Vous pensez ne plus avoir besoin des services de JBoss ? Pas de problème, vous avez tout à fait la liberté de ne pas renouveler votre contrat de support tout en continuant d’utiliser JEMS. Et vous avez même la liberté d’y souscrire de nouveau à l’avenir, voire de passer par un autre prestataire !


Plus que les traditionnelles SSII, les sociétés de service en logiciels libres sont aux produits Open Source ce que les éditeurs sont à leurs solutions propriétaires, soit des partenaires de choix pour assurer le support des applications que l’on utilise. En ce sens, les SSLL ont le vent en poupe et chaque jour qui passe en voit fleurir une nouvelle pour occuper toujours mieux le territoire (lire l’encadré « Où trouver une Société de service en logiciel libre ? »). Certaines d’entre elles se sont réunies sous la bannière de l’ASS2L, une association qui met en évidence leur complémentarité.
Parmi les SSLL, on dénombre quelques poids lourds. Le constructeur Bull en est l’un des exemples les plus probants. À l’initiative du consortium ObjectWeb à qui l’on doit le serveur d’applications JOnAS, Bull propose à son catalogue une offre complète de services autour de l’OpenSource, laquelle comprend aussi bien du support que du portage, du développement et de l’intégration (lire l’encadré « Zoom sur la solution Libre Energie de Bull »).


Poste de travail en Open Source : mieux vaut encore attendre

OpenSource1-01.jpgLes entreprises sont désormais convaincues des bénéfices qu’apportent les logiciels Open Source. Il reste à accompagner ces derniers des garanties nécessaires.
Parée de tels partenaires, l’entreprise est-elle prête à faire migrer la totalité de ses systèmes informatiques vers des solutions uniquement Open Source ? La réponse est non, pas encore. « Il ne faut pas brûler toutes les étapes », prévient Stéphane Fermigier de Nuxeo, « Le poste de travail pose encore des problèmes. » Le grand public a adopté en masse le navigateur Firefox à la place d’Internet Explorer et plusieurs administrations, dont la Gendarmerie nationale, ont pris l’initiative de remplacer Microsoft Office par Open Office sur leur PC de bureau. Il n’empêche, il manque toujours à Open Office d’être livré en standard avec un correcteur grammatical français pour espérer s’installer sur les machines du plus grand nombre. Quant à Linux, qui ne cesse d’étonner par ses derniers progrès en matière d’esthétique et d’ergonomie – voir pour cela la version la plus récente de la distribution Ubuntu, que Stéphane Fermigier n’hésite pas à qualifier de « encore plus épatante que Mac OS X » –, il lui manque toujours la possibilité d’écrire sur des partitions NTFS. Les deux problèmes ne sont pas incontournables : un correcteur grammatical pour Open Office existe en option, (lire la seconde partie de ce dossier), et les systèmes de fichiers de Linux offrent bien plus de fonctions que le NTFS de Windows, mais ils se heurtent à une barrière culturelle. Selon le colonel Nicolas Géraud, de la sous-direction des télécommunications et de l’informatique de la Gendarmerie nationale, « Le problème est que les DSI ont abandonné le poste de travail à l’utilisateur ». En sous-entendu, cela signifie que l’on laisse les utilisateurs travailler avec un environnement largement répandu (Windows et Office), car on sait qu’il supposera moins d’interventions de la part des responsables informatiques. « On pense typiquement à la recherche sur le Web de pilotes tiers pour prendre en compte tous les composants d’une machine, tâche particulièrement ardue lorsqu’il s’agit d’un ordinateur portable dernier cri », témoigne Stéphane Fermigier. Mais selon Boris Auché, de la division Services et Solutions chez Bull, « Cette situation ne va pas durer, car les entreprises vont de plus en plus vers des postes sécurisés, où l’on réduit au minimum le risque de virus et de piratages – ce qui peut aller jusqu’à couper toutes les portes d’entrées, comme les lecteurs de DVD, les clés USB ou encore les périphériques BlueTooth. Sur ce créneau, Linux et Open Office s’inscrivent comme une solution parfaite. » Reste qu’il convient de contourner un problème de base, « Aucune machine à l’achat n’est livrée sans Windows », indique Boris Auché.

Où trouver une Société de service en logiciel libre ?
Le sociétés de service en logiciel libre (SSLL), partenaires de choix pour assurer le support d’une solution Open Source en entreprise, fleurissent un peu partout dans l’Hexagone. Pour trouver la plus proche de chez vous, le mieux reste de consulter les annuaires spécialisés, lesquels tâchent d’en référencer le plus grand nombre et accompagnent souvent leurs coordonnées d’un descriptif susceptible de mettre en avant les spécialités de chacune. Voici les adresses des principaux annuaires :
http://www.infogiciel.info/annuairessll.php3
http://www.linux-france.org/article/pro/annuaire/
http://www.ebusiness.info/guide.php3?rubrique=R-OPENS&sousrub= SR-OSSSL
http://www.logiciellibre.net/betannu.php?id1=2&id2=43
http://www2.cetril.org:8080/lutece/jsp/site/Portal.jsp?page_id=46
http://www.annuli.org/ssll-p1-44.html http://www.ass2l.org/rubrique4.html (membres de l’ASS2L uniquement)


Procéder à des audits internes

A contrario, les qualités tant ergonomiques que fonctionnelles des environnements de travail Linux encouragent d’ores et déjà certains à l’installer sur leur machine. Mais l’initiative personnelle se heurte à l’autorité de la direction informatique. Selon Boris Auché, « Les atouts ne manquent pas à une solution personnelle libre – ne serait-ce que parce qu’elle permet de travailler avec des formats de documents qui ne sont pas verrouillés sur la propriété intellectuelle d’un éditeur – et c’est pourquoi les DSI ont tout intérêt à considérer dès aujourd’hui les motivations des employés. » À ce sujet, la démarche préconisée est une enquête interne et une prise de décision au niveau de la direction générale, accompagnée d’une formation indispensable si l’on décide de remplacer les outils que manipulent les salariés. « Il vaut mieux ne pas faire de Big Bang », prévient le colonel Nicolas Géraud. D’autant qu’entre les distributions de Red Hat (« Fedora » en version gratuite), SuSE, Mandriva et Ubuntu, aucune ne se distingue vraiment encore chez les utilisateurs, alors qu’elles offrent toutes des caractéristiques ergonomiques propres. Même entre les environnements graphiques de travail Gnome et KDE, le débat reste toujours entier. La question ne se pose en revanche plus pour Open Office qui a su distancer ses concurrents les plus récurrents, tel KOffice. On pourra consulter la liste des grands comptes (dont plusieurs administrations françaises) qui l’ont déjà adopté en production à l’adresse http://wiki.services.
openoffice.org/wiki/Major_OpenOffice.org_Deployments.

Zoom sur la solution Libre Énergie de Bull
La solution de services Libre Énergie de Bull se décline selon quatre axes.
Libre Accès correspond à l’offre de support sur des composants ou des « piles » de logiciels Open Source. D’une part, à l’aide d’outils de mesure, Bull prend en compte les aspects de métrologie, de gestion de projets et de garantie de performances. D’autre part, le constructeur (rappelons qu’il produit et vend des serveurs Linux, Windows et Unix sur architectures x86, Itanium et Power) dispose de trois centres d’appel qui ont vingt ans d’expérience dans le support et traitent plus de vingt mille dossiers par an.
Libre Échange permet d’effectuer le portage des applications actuellement opérationnelles sur des piles logicielles propriétaires vers des piles logicielles libres, choisies par le client. Ce portage s’opère en environnement serveur (de WebSphere à JOnAS, par exemple, ou encore d’Oracle à MySQL) ou poste de travail (de Microsoft Office à Open Office). Il garantit une baisse des coûts applicatifs, une indépendance accrue par la disponibilité du code source et l’évolutivité dans les projets de refonte des applications. En revanche, Libre Échange ne couvre pas les portages d’applications développées sous .Net.
Libre Service constitue l’offre de développement autour des technologies J2EE et PHP. Ce dispositif s’accompagne d’une méthodologie souple assurant flexibilité, adaptation et standardisation. Il est ici question d’utiliser les outils de la suite Nova Forge de Bull, laquelle repose entre autres sur l’environnement de développement libre Eclipse.
Libre Entreprise, enfin, est l’offre d’intégration de composants libres dans les projets de travail collaboratif (workflow, messagerie), de portails ou de systèmes d’échange (courtier d’intégration, EAI-Enterprise Application Integration et Enterprise Services Bus). Elle propose une plate-forme de services intégrant les composants libres et respectant les standards J2EE. Cette plate-forme est enrichie par des développements Bull, dont le serveur d’applications JonAS, le moteur de workflow Bonita et le portail eXo. Elle permet de bâtir, d’intégrer, de déployer, de sécuriser et d’administrer des applications métier et de mettre en place des Architectures Orientées Services (dites SOA pour l’acronyme anglais). Ici, la notion de conseil est capitale.


Serveurs Open Source ou l’arrivée – enfin – des standards

La situation est tout autre sur les serveurs, où l’environnement graphique ne représente qu’une solution accessoire de maintenance locale… alors que les serveurs se pilotent plutôt à distance et via des commandes – voire, dans le cadre d’une configuration générique, par l’intermédiaire d’une interface Web. Ici, la valeur du standard domine l’ensemble des manipulations, jusqu’aux fichiers et couches logicielles mises en œuvre. La preuve de ce phénomène est à chercher dans les applications métier qui émergent désormais du monde Open Source : les ERP Compière et ERP5, le CRM SugarCRM, les décisionnels SpagoBI, Japersoft ou encore Pentaho reposent tous sur les mêmes technologies, à savoir du PHP, du MySQL et du Java. Les configurations qui doivent se faire à un niveau assez bas – uniquement pour l’administration – demandent des compétences universelles de l’un à l’autre (lire la seconde partie de ce dossier).

Selon Boris Auché de Bull, « Les solutions Open Source sont des assemblages de logiciels et c’est donc par pur pragmatisme que tous ceux-ci se sont standardisés » ! Du coup, les produits libres assurent une pérennité maximale : « Avec des logiciels qui restent les mêmes d’une plate-forme à l’autre, quel que soit le système d’exploitation ou l’architecture matérielle, et des données qui conservent un format identique d’un logiciel à l’autre, les produits Open Source rendent la mutualisation des ressources et la migration des données plus faciles », conclut Boris Auché.

Les six règles d’or de l’adoption d’une solution Open Source, selon Bull
1. Bien évaluer les avantages et les contraintes de l’Open Source. Pour chaque type de composant, il importe de balancer les avantages potentiels de l’Open Source (interopérabilité, flexibilité, réduction des coûts, souveraineté) et les contraintes, notamment en termes de fonctionnalités, d’intégration et de support. Il faut également bien choisir les communautés auxquelles s’adosser.
2. Bien évaluer les coûts de mise en œuvre : formation, intégration, développement, support en interne ou en s’adressant à un distributeur (ou intégrateur) dédié.
3. Intégrer l’Open Source dans la stratégie globale du SI. Historiquement, l’Open Source a souvent été introduit dans les entreprises de manière opportuniste par les experts techniques. Aujourd’hui, il faut le prendre en compte au niveau même de la stratégie SI, avec une pleine implication de la DSI et des responsables des achats…
4. Choisir les bons composants aux bons niveaux d’infrastructure. L’Open source n’est pas un produit. C’est un processus de développement doublé d’une fantastique boîte à outils composée de nombreux logiciels et composants différents. Vouloir exploiter l’Open Source, c’est avant tout choisir et intégrer les composants qui correspondent aux besoins spécifiques de l’entreprise. Beaucoup d’entreprises définissent ainsi pour leurs infrastructures des cadres de cohérence, associant dans un cocktail optimal des logiciels Open Source et d’autres propriétaires.
5. Assurer une mise en œuvre progressive. Privilégier des mises en œuvre pilotes, sur des projets ciblés, permet d’optimiser la courbe d’apprentissage et de minimiser les risques.
6. Effectuer une veille technologique en ce qui concerne les évolutions. C’est à l’entreprise utilisatrice de suivre les évolutions du logiciel et de la communauté. D’où la nécessité de faire un effort de veille, ou de s’adosser à un prestataire (éditeur, intégrateur) qui l’assure.

p.2
Réduire
Solution Open Source :
comment en assurer soi-même le suivi

Par Yann Serra - Copyright L'Informaticien, tous droits réservés

Administrer, mettre à jour, dépanner ou enrichir une solution Open Source n’a rien de bien sorcier, mais on la connaît généralement moins bien qu’une plate-forme Windows. Qu’il s’agisse d’une machine de bureau ou d’un serveur, voici tout ce qu’il faut connaître.

opensource2.jpg
Bien que pour rassurer toute la hiérarchie de l’entreprise, nous conseillions de passer par un prestataire extérieur, le responsable informatique local ne sera que plus efficace s’il maîtrise lui-même les aspects techniques de la solution Open Source installée, notamment son administration et ses mises à jour. Contrairement à ce que prétend la rumeur populaire, circuler dans les entrailles d’un système Linux n’est pas si compliqué que cela. Il suffit juste de comprendre comment il marche.

Comment démarrer un Linux ?

En deux mots, Linux est un noyau (fichier "vmlinux" à la racine "/" du disque, voire dans le répertoire "/boot/", selon les distributions) qui commence par lire le fichier "/etc/inittab" pour savoir comment il doit démarrer le système ; plusieurs configurations sont listées, celle choisie est celle qui précède le mot-clé "initdefault". Généralement, il s’agit d’exécuter d’abord le script "/etc/rc.d/rc.sysinit" pour procéder à la mise en route du système d’exploitation. Celle-ci comprend le montage de tous les disques et partitions utiles (listés dans le fichier "/etc/fstab"), le chargement des pilotes pour reconnaître le matériel (présents dans le répertoire "/lib/modules/") ou encore la définition de paramètres de base (configuration réseau TCP/IP, nom des fichiers de logs… tous ces éléments sont regroupés au sein de fichiers qui logent dans le répertoire "/etc/sysconfig/").
Ensuite, le noyau se déplace dans le répertoire "/etc/rc.d/rc#.d/" qui correspond à la configuration indiquée par le mot-clé "initdefault" (s’il s’agit de la configuration numéro 5, alors, il suivra le chemin "/etc/rc.d/rc5.d/") et exécute tous les scripts qui s’y trouvent. Chacun de ces scripts va lancer un programme, lequel est typiquement un "démon", à savoir un logiciel qui attend en tâche de fond d’être utile. Parmi ces démons, "xinetd" est celui qui écoute sur les ports de la machine et active un serveur dès qu’une requête venue de l’extérieur se présente. La liste des ports et des fichiers exécutables correspondant – les serveurs – est donnée dans le fichier "/etc/xinetd.conf". Outre "xinetd", on trouve aussi régulièrement le lanceur de l’environnement graphique, lequel est souvent Gnome (dont la configuration loge dans le fichier "~/.gnome/session") ou KDE (fichiers de configuration dans le répertoire "~/.kde3/share/"). À l’usage, on se rend compte que ce système est en vérité infiniment plus simple que la base des registres de Windows !

Où sont installés les programmes (outils, applications, serveurs) ?

INF042_54.jpg
Les exécutables manipulables par l’utilisateur logent quasiment toujours dans un répertoire "bin/" et ceux des serveurs, des démons ou que se réserve l’administrateur dans un répertoire "sbin/". Après, toute la subtilité consiste à savoir à quel niveau de l’arborescence ceux-ci se trouvent. "/bin/" et "/sbin/", à la racine du disque, regroupent les outils inhérents au fonctionnement fondamental du système ; "/usr/bin/" et "/usr/sbin/" contiennent les binaires installés par l’éditeur de votre Linux pour enrichir sa distribution (typiquement, l’interpréteur PHP et le serveur Apache, nommé par convention "httpd"). Le répertoire "/usr/" peut contenir également les répertoires d’autres applications installées par l’éditeur et qui disposent elles-mêmes de répertoires "bin/" et "sbin/". Il en va par exemple ainsi du moteur graphique X-Window et de son répertoire "/usr/X11R6/bin/". Enfin, les binaires que l’utilisateur installera lui-même iront se loger par défaut dans "/usr/local/bin/" et "/usr/local/sbin/".
Les fichiers de configuration de tous les programmes se trouvent dans le répertoire "/etc/", avec éventuellement un regroupement au sein d’un sous-répertoire donné si une application en utilise plusieurs. S’il existe une configuration par utilisateur, alors celle-ci se trouve à la racine du répertoire qui leur est attribué, généralement avec un nom qui commence par un point (".") pour ne pas être visible (à partir d’un Shell, la commande "ls -a" permet de voir les fichiers invisibles). Les répertoires des utilisateurs se trouvent tous dans le répertoire "/home/".

Tous les fichiers fonctionnels d’une application (documentation, icônes, etc.) sont généralement situés dans des sous-répertoires "share".


Comment installer de nouveaux logiciels et garder son système à jour ?

En ce qui concerne l’installation de nouveaux logiciels ou de mises à jour, il faut savoir que les distributions Linux les plus usuelles, à savoir Red Hat, SuSE, Mandriva ainsi que Debian et ses variantes (Ubuntu…) fonctionnent avec un système de dépôts, soit des sites Web qui hébergent en permanence les dernières versions des applications, outils, composants systèmes et autres patches de sécurité pour une distribution donnée. On peut les télécharger (soit individuellement pour enrichir son système avec de nouvelles fonctions, soit d’un bloc pour mettre à jour tout ce qui est déjà installé) au moyen d’une commande propre à chaque Linux : yum sur Red Hat, YaST sur SuSE, urpmi sur Mandriva, apt-get sur Debian/Ubuntu. Mise à part la version gratuite de Red Hat (Fedora), tous les autres Linux disposent par défaut dans leur environnement graphique d’un outil qui permet de consulter, de chercher et d’installer à la souris les « paquetages » présents sur les dépôts. Ubuntu, SuSE et la version commerciale de Red Hat avertissent même d’une mise à jour importante à effectuer en faisant changer de couleur une icône du bureau. Il est possible d’automatiser les mises à jour en plaçant la commande de téléchargement dans un script cron, qui s’exécute à intervalles réguliers – par exemple une fois par nuit. Mais pour se préserver de tout problème survenu d’on ne sait où, les mises à jour manuelles et régulières restent préférables – de une fois par semaine à une fois par mois.
Les environnements d’exécution Perl et PHP (et même Ruby) fonctionnent de la même manière, à savoir qu’ils utilisent une commande donnée ("ppm" pour Perl, "pear" pour PHP, "gem" pour Ruby) afin d’installer et mettre à jour des logiciels qui leur sont dédiés depuis des dépôts (voir encadré « Comment mettre automatiquement à jour l’intégralité d’un environnement ? »). Les serveurs d’application libres J2EE (Java) et Zope (Python) n’offrent pas par défaut une telle facilité. Mais un prestataire peut proposer un système similaire pour peu que l’on souscrive à son offre de support.

Comment installer un logiciel ou un pilote tiers ?

OpenSource2-02.jpgYum est le système adopté sur Red Hat pour mettre automatiquement à jour le système et installer de nouveaux logiciels à partir des « dépôts », dont la liste est préenregistrée dans l’OS.

Les dépôts ne contiennent que les logiciels totalement libres, pas les composants système et les applications issus d’un constructeur ou d’un éditeur tiers (pilote de matériel, JVM, serveur d’applications, progiciel, codec, plug-ins…). Ces derniers sont à récupérer sur le site de leurs auteurs où ils prennent la forme d’un « paquetage » RPM (extension ".rpm") compatible avec les systèmes Red Hat, Mandriva et SuSE – mais pas avec  Debian/Ubuntu, ce qui peut proscrire l’utilisation de ce genre de Linux en production. Une fois l’archive RPM téléchargée, il suffit de double-cliquer sur son icône pour l’installer. Tout se fait tout seul, on n’est même pas obligé de sélectionner le répertoire de destination (par défaut "/usr/local/" pour une application). Ce système autorise ultérieurement une désinstallation automatique et propre (voir encadré « Quels sont les logiciels à installer pour compléter une distribution Linux ? »).
Seul problème qui puisse se poser, celui des dépendances, à savoir tous les autres composants qu’il aura éventuellement fallu installer au préalable pour que le nouveau paquetage fonctionne (il arrive que des bibliothèques nécessaires ne fassent pas encore partie de votre Linux). Il vous appartient de vous renseigner en lisant les fichiers texte qui accompagnent les logiciels que vous téléchargez.

Pour peu que l’on dispose d’un environnement d’exécution Java, il est possible d’installer des applications Java (des « applets ») sur son système. Celles-ci se téléchargent sous la forme d’archives JAR (extension ".jar") qui se décompressent en double-cliquant sur leur icône. Le programme résultant est aussi directement exécutable par double-clique. Les archives de scripts écrits en Perl, PHP ou Python sont quant à elle proposées par les sites Web dans un format usuel (le ZIP, typiquement).

Installation : comment venir à bout d’un problème de compilation ?
Lors de la compilation d’un code source en binaire, il se peut que "make" rencontre une erreur que "configure" n’avait pas identifiée (typiquement lorsqu’il manque un fichier ".h"). Auquel cas, "make" stoppe son processus de compilation et signale l’erreur en deux messages : le premier correspond à la ligne du fichier makefile qui a provoqué l’erreur (par exemple "cc -O2 -Wall -Werror -c toto.c") et le second à l’erreur proprement dite (par exemple "toto.c:60 tata.h: No such file or directory", ce qui signifie que la ligne numéro 60 du code source "toto.c" fait référence à un fichier "tata.h" introuvable). La solution la plus simple consiste alors à rechercher soi-même le fichier manquant, lequel peut tout à fait se trouver sur le disque dur, mais à un endroit exotique. Depuis un Shell, ceci se fait à l’aide des commandes "locate" ou "find / -name", suivies du nom du fichier à trouver. Imaginons qu’elles nous apprennent que "tata.h" se situe dans "/usr/pkg/include/". Il suffit alors de retaper manuellement la ligne qui a posé problème en la complétant du chemin du fichier manquant grâce à l’option "-I" ("cc -O2 -Wall -Werror -I /usr/pkg/include -c toto.c"), puis de retaper simplement "make". La commande "make" a en effet le bon goût de se souvenir des étapes franchies avec succès pour reprendre le processus de compilation là où il s’était arrêté.
Cela dit, il se peut aussi que le fichier ".h" recherché n’existe effectivement pas du tout sur le disque dur, ce qui signifie qu’il fait partie d’un logiciel qui n’a pas été installé. Reste à savoir lequel. Il n’y a pas de solution miracle. Éventuellement, on peut tenter de saisir le nom du fichier ".h" dans Google pour retrouver sa trace sur Internet, le télécharger et l’installer. Dans ce cas, le mieux sera de recommencer ensuite toute la compilation du logiciel à installer, ce qui signifie effacer tous les débuts de travaux précédemment effectués, grâce à la commande "make clean", puis de retaper "./configure", "make" et "make install".


Comment installer un logiciel expérimental ?

INF042_58.jpg
On peut vouloir installer la version bêta d’un logiciel qui n’existe pas encore sous forme de paquetage ou encore compiler soi-même un binaire afin d’être sûr qu’il soit expressément optimisé pour la machine sur laquelle il tourne. Dans ce cas, il suffit de télécharger le code source du programme convoité, distribué cette fois sous la forme d’une archive ".tgz" (".tar.gz" et ".tar.bz2" sont des variantes connues). Pour exploiter cette dernière, il faut commencer par la décompresser dans un répertoire de travail (dont l’emplacement importe peu). Ceci se fait à partir d’une fenêtre Shell grâce à la commande "tar -xvzf <nom de l’archive>". Apparaissent alors quantité de fichiers. Parmi ceux-ci, le script nommé « configure » est à exécuter avant toute chose (en tapant "./configure", le point et la barre oblique étant indispensables sur systèmes Unix pour lancer un exécutable autre que ceux du système d’exploitation). Il adapte le futur programme aux caractéristiques de la  machine hôte et signale le cas échéant les problèmes qui peuvent interdire la compilation (bibliothèques manquantes...) ; "configure" accepte des paramètres, tel "--prefix <chemin>" qui indique le répertoire de destination dans lequel on souhaitera ensuite installer le logiciel ("/usr/local/" par défaut). Tous les paramètres (ils changent d’un programme à l’autre) sont listés dans un fichier texte « README », ou « INSTALL », extrait de l’archive. De manière alternative, on peut les connaître en tapant "./configure --help".

Au terme de son travail d’analyse (qui se traduit à l’écran par une suite de lignes commençant par "checking..."), "configure" génère des fichiers makefile qui contiennent toutes les instructions de la compilation à proprement parler. On exécute ces dernières en tapant "make" (il s’agit d’une commande du système, il ne faut donc pas indiquer "./" au début), lequel assure le pilotage du compilateur hôte (souvent GCC) d’après les renseignements des makefile. Après un laps de temps plus ou moins long, selon le nombre de lignes à compiler et la puissance de votre machine, le binaire est enfin généré. Il ne reste plus qu’à l’installer au bon endroit avec la commande "make install", laquelle doit être précédée de "sudo" si l’on n’a pas précisé à l’aide de "--prefix" une destination située dans l’actuel répertoire utilisateur ("sudo" impose de saisir le mot de passe de l’administrateur).

Quels sont les logiciels à installer pour compléter une distribution Linux ?
Outre un environnement graphique complet, des myriades d’outils (dont le compilateur GCC) et des serveurs de fichiers, les distributions Linux Red Hat (ainsi que Fedora, sa déclinaison gratuite), SuSE et Mandriva contiennent la suite bureautique Open Office, la suite Internet Mozilla/Thunderbird, le serveur Web Apache, le serveur de base de données MySQL et les interpréteurs des langages PHP, Perl, Python. Il leur manque en revanche des composants nécessaires à une mise en production – que ce soit en tant que serveur ou en tant que plate-forme personnelle. Voici la liste des plus fréquents (pour Linux, ne téléchargez aux adresses indiquées que les paquetages RPM, voire les archives ".tgz").

Logiciels et adresses : où les télécharger (gratuitement)

• Environnement d’exécution Java (JRE) http://www.java.com/fr/download/
• Serveur d’applications JBoss (J2EE) http://labs.jboss.com/portal/
• Serveur d’applications JOnAS (J2EE) http://jonas.objectweb.org/download/
• Serveur d’applications Zope (Python) http://www.zope.org/Products/
• Progiciel de relation client SugarCRM http://www.corratech.fr/open-source/ telecharger-packs-sugarcrm.html
• Progiciel de gestion ERP5 http://erp5.org/DownloadRpm
• Progiciel de gestion Compière http://www.compiere.org/download/ index.html
• Progiciel décisionnel Pentaho http://prdownloads.sourceforge.net/ pentaho/
• Correcteur grammatical pour OpenOffice http://borel.slu.edu/gramadoir/ sios.html
• Pilotes d’imprimante CUPS http://www.cups.org/ppd.php
• Pilotes matériel (divers) http://dag.wieers.com/home-made/ apt/packages.php
• Plug-in Flash http://macromedia.rediris.es/ site_ri.html
• Lecteur Acrobat Reader (PDF) http://www.adobe.com/products/ acrobat/readstep2.html
 • Polices de caractères Windows http://prdownloads.sourceforge.net/ corefonts/