mardi 27 septembre 2016
 
Bonnes feuilles
Réduire
Groove
Pour collaborer simplement dans Office 2007

9782100505760.jpg
« Découvrir Office 2007 », par Katherine Murray. Microsoft Press, 220 pages.
La prochaine version de la suite bureautique de Microsoft s’enrichit de nombreuses fonctions. Un produit spécifique, Groove, permet de créer rapidement des groupes de travail ou de projet. L’ouvrage de Katherine Murray « Découvrir Office 2007 » paru chez Microsoft Press vous permet de faire vos premiers pas avec ce tout nouvel outil.

Quel que soit le type de travail que vous effectuiez, il est probable que vous ayez affaire à des projets qui impliquent un certain nombre de personnes. Peut-être devez-vous écrire un manuel de formation, créer une feuille de calcul, préparer une présentation, rechercher une proposition ou organiser une force de vente. Toutes ces tâches ont un commencement, un milieu et une fin. En outre, chacune d’entre elles a de fortes chances d’impliquer un travail collaboratif avec d’autres personnes — que vous ayez besoin d’un réviseur pour votre manuel, d’un responsable pour finaliser votre feuille de calcul, de pairs pour évaluer votre présentation, d’un comité de directeurs pour approuver votre proposition ou d’une force de vente à former.
Microsoft Office Groove 2007 est un nouvel outil de collaboration qui vous permet de rassembler de petites équipes dans un espace de travail commun afin de réaliser plus efficacement et facilement vos projets. Office Groove 2007 crée des espaces de travail sur votre ordinateur, sans requérir de configuration spéciale côté serveur. Les fichiers sur lesquels vous travaillez en collaboration avec les membres de votre équipe sont stockés sur les ordinateurs des membres de l’équipe, afin que les participants puissent y accéder qu’ils soient en ligne ou hors connexion. En outre, à chaque fois qu’un membre d’équipe se connecte, les fichiers sur l’ordinateur sont mis à jour afin d’inclure toutes les modifications opérées par les autres membres de l’équipe.
Office Groove 2007 peut être utilisé pour vos projets quel que soit votre lieu de travail. Vous pouvez l’installer sur tous vos ordinateurs et périphériques Windows Mobile afin d’accéder sans discontinuer aux dernières informations de votre espace de travail, quel que soit le périphérique utilisé. Office Groove 2007 peut aisément créer des espaces de travail autohébergés adaptés à vos différents projets, mais le programme interagit aussi avec Microsoft Windows SharePoint Services et Microsoft Office SharePoint Server 2007en vous permettant de publier aisément des documents créés dans les espaces de travail Office Groove 2007 afin de structurer vos flux de travail ou de réaliser un stockage à long terme.Dans ce chapitre, vous allez découvrir certaines des fonctionnalités d’Office Groove 2007 qui vous aideront à réaliser vos projets collaboratifs de manière flexible et efficace.


Astuce : Où se procurer Office Groove 2007 ? Le programme est proposé comme composant de Microsoft Office Enterprise 2007 ou comme application autonome aux clients possédant des accords d’entreprise ou qui achètent le logiciel par contrat de licences en volume. Les clients des petites entreprises, les groupes de travail au sein d’organisation plus vastes et les individus peuvent acheter Microsoft Office Live Groove, une inscription annuelle incluant l’application cliente Office Groove 2007 et un accès aux services de relais de données hébergés par Microsoft.
fig1.jpg
Figure 1. La barre de lancement fournit des informations rapides concernant les actions à effectuer dans Office Groove 2007.
fig2.jpg
Figure 2. Dans la boîte de dialogue Créer un nouvel espace de travail, entrez un nom pour l’espace de travail et choisissez le type désiré.
fig3.jpg
Figure 3. L’espace de travail Office Groove 2007 inclut des outils pour partager des fichiers ou héberger une discussion ou un chat en direct.
fig4.jpg
Figure 4. Lorsque vous invitez d’autres personnes, vous pouvez spécifier leur rôle et ajouter un message personnalisé.


Utiliser la barre de lancement

Pour commencer, lancez Office Groove 2007 comme n’importe quelle autre application du système Microsoft Office 2007 ; la barre de lancement apparaît sur votre bureau afin de vous aider à créer et gérer vos activités dans Office Groove 2007 (voir figure 1).


Créer un espace de travail

Créer un espace de travail Office Groove 2007 est un vrai jeu d’enfant. En quelques clics, vous pouvez configurer un espace de travail que des membres d’une équipe pourront partager. Dans la barre de lancement, ouvrez le menu Fichier, puis choisissez Nouveau et Espace de travail (vous pouvez également choisir « Espace de travail provenant de », si vous souhaitez créer un espace de travail d’après un modèle d’espace archivé). La boîte de dialogue Créer un nouvel espace de travail (voir figure 2) fournit les options requises pour créer le nouvel espace de travail. Entrez simplement un nom, choisissez un type d’espace de travail et cliquez sur OK.


Comprendre la fenêtre de l’espace de travail

fig5.jpg
Figure 5. Cliquez sur le bouton Ajouter un outil à cet espace de travail pour afficher une liste d’outils pouvant être ajoutés à l’espace de travail Office Groove 2007.
La fenêtre de l’espace de travail Office Groove 2007 est organisée de manière à ce que vous puissiez aisément parcourir les communications de votre équipe et les tâches du projet (voir la Figure 3). La barre de titre de la fenêtre de l’espace de travail ouvert présente le nom de l’espace de travail actif. La barre des menus propose des commandes pour gérer les fichiers, travailler avec des outils, modifier la vue et régler les préférences.
Utilisez le bouton Espaces de travail de la barre des menus pour passer d’un espace de travail à un autre. Le panneau contextuel Tâches courantes dans le coin inférieur droit de l’espace de travail propose également des fonctions utiles selon votre emplacement dans l’espace de travail ou de l’élément sur lequel vous avez cliqué.

fig6.jpg
Figure 6. Cliquez sur Ajouter des fichiers pour sélectionner les fichiers que vous souhaitez ajouter à l’espace de travail.
Si vous créez un espace de travail standard (soit la méthode la plus courante), celui-ci contient automatiquement un outil Fichiers et un outil Discussion. Lorsque vous ouvrez l’espace de travail, l’outil Fichiers est sélectionné par défaut et un ensemble de boutons pour travailler avec le fichier s’étend en haut de la zone de texte. Chaque outil possède son propre bouton de menu unique juste en dessous des options de menu de type Windows.

À tout moment durant le projet, les membres autorisés de votre équipe peuvent ajouter un certain nombre d’outils supplémentaires à votre espace de travail (plus d’informations à ce sujet dans la prochaine section).

Le panneau des tâches Membres de l’espace de travail situé à droite de la fenêtre présente les membres actuellement en ligne et le champ Inviter dans l’espace de travail. Le panneau Conversation se trouve juste en dessous du panneau Membres de l’espace de travail et peut être ouvert et fermé en cliquant sur la double flèche à droite de sa barre de titre.


Inviter d’autres utilisateurs et attribuer des rôles

Office Groove 2007 vous permet d’inviter d’autres personnes à rejoindre votre espace de travail. Cliquez simplement sur le champ Inviter dans l’espace de travail, tapez le nom du contact ou son adresse e-mail et cliquez sur OK (si vous avez entré ces informations de contact auparavant, l’adresse apparaît automatiquement avant que vous n’ayez terminé de la saisir). La boîte de dialogue Envoyer l’invitation apparaît. Elle vous permet d’ajouter d’autres invités, de sélectionner des rôles, d’ajouter un message et de cliquer sur Inviter (voir la Figure 4). Les destinataires possédant Office Groove 2007 reçoivent l’invitation de cette manière. Ceux qui ne le possèdent pas reçoivent un courrier électronique avec les liens requis pour démarrer.
Office Groove 2007 propose trois rôles à attribuer à vos membres d’espace de travail. En qualité de créateur de l’espace de travail, vous possédez par défaut le rôle de Gestionnaire et avec lui, toutes les autorisations de niveau espace de travail, dont celle d’inviter des membres ou de leur refuser l’invitation et d’ajouter et supprimer des outils. Chaque membre invité à un espace de travail se voit attribuer par défaut le rôle de Participant, qui leur permet d’inviter de nouveaux membres et d’ajouter des outils. Le paramètre Invité restreint les membres à des privilèges de lecture seule et les empêche d’ajouter ou de supprimer des informations dans l’espace de travail ou d’inviter d’autres personnes.


Astuce : Vous pouvez modifier les rôles de niveau espace de travail et les autorisations attribuées aux membres d’équipe en cliquant sur Définir des rôles dans le panneau Tâches courantes ou en choisissant Définir des rôles dans le menu Options. Vous pouvez également ajuster les autorisations pour chaque outil en cliquant du bouton droit sur l’onglet de l’outil et en choisissant Propriétés/Autorisations.


Outils de collaboration


Office Groove 2007 inclut un ensemble varié et puissant d’outils qui peuvent être ajoutés à votre espace de travail afin de vous aider à réaliser les diverses tâches requises par votre projet particulier. Par exemple, vous pouvez ajouter l’outil Images pour partager des images que vous prévoyez d’utiliser dans le rapport annuel d’activités de votre organisation à but non lucratif. Vous pouvez aussi ajouter l’outil Calendrier si vous travaillez à l’organisation d’un événement d’importance.

Lorsque vous ouvrez un espace de travail Standard dans Office Groove 2007, seuls les outils Fichiers et Discussion sont affichés par défaut. Vous pouvez ajouter des outils à votre espace de travail en cliquant sur la bouton Ajouter un outil à cet espace de travail juste à gauche du panneau Tâches courantes et en choisissant l’outil que vous souhaitez dans le menu qui s’affiche (voir la Figure 5).


Partager des fichiers

L’affichage de la zone de l’espace de travail se modifie selon l’outil que vous sélectionnez. Lorsque vous ouvrez un espace de travail pour la première fois, l’outil Fichiers est affiché par défaut. Cette vue vous permet de créer une bibliothèque de fichiers que les membres de votre équipe peuvent utiliser pour poster, partager, réviser et mettre à jour tous les types de fichiers liés à vos projets.

Pour ajouter des fichiers à l’espace de travail, cliquez simplement sur Ajouter des fichiers, puis choisissez les fichiers à ajouter (voir figure 6). Les fichiers sont ajoutés à l’espace de travail afin que les autres membres puissent les visualiser, les modifier et en discuter.

Note : Vous pouvez utiliser des fichiers de tous les types avec Office Groove 2007 ; tout fichier qui prend en charge votre projet peut être ajouté à l’outil Fichiers dans la fenêtre de l’espace de travail.



Héberger des discussions

fig7.jpg
Figure 7. L’outil Discussion vous permet d’héberger une conversation avec suivi des fils concernant différents aspects de votre projet.
fig8.jpg
Figure 8. L’outil Calendrier vous permet de tenir registre des dates importantes et de marquer les jalons de vos projets.
fig9.jpg
Figure 9. L’outil Réunions d’Office Groove 2007 vous aide à préparer plus efficacement des réunions en temps réel.
L’outil Discussion vous permet de créer une discussion à rubriques concernant divers sujets liés à votre projet. Vous pouvez organiser la discussion par rubrique ou par date afin de pouvoir aisément repérer ce qui doit retenir votre attention en premier. À chaque fois qu’un participant répond à un fil de discussion, la conversation est indentée, afin que vous puissiez aisément observer la progression des échanges et répondre aux fils qui sont le plus directement liés à vos tâches (voir la figure 7).

Office Groove 2007 et la sécurité des données
fig10.jpg
Figure 10. L’outil Suivi des problèmes inclut un modèle prédéfini que vous pouvez utiliser pour tenir registre des problèmes et de leur résolution dans la fenêtre de l’espace de travail.
Office Groove 2007 est-il sécurisé ? Bon nombre d’utilisateurs se soucient aujourd’hui, à raison, de la sécurité de leurs informations, notamment lorsqu’ils travaillent dans un groupe collaboratif en ligne. Office Groove 2007 crypte automatiquement toutes les informations partagées dans les espaces de travail, à la fois sur les ordinateurs des membres de l’équipe et lors des passages de données sur le réseau de l’entreprise ou sur Internet.



Coordonner des calendriers

Le Calendrier récolte des informations importantes pour les membres de l’équipe en leur indiquant les dates critiques pour la réalisation d’un projet. Vous pouvez utiliser l’outil Calendrier d’Office Groove 2007 pour mettre en place un agenda de projet permettant à tous les acteurs de se coordonner. L’ajout de rendez-vous et la personnalisation de l’affichage sont très simples. Affichez l’outil et cliquez du bouton droit sur un jour pour afficher les options du calendrier et sélectionnez le choix souhaité (voir figure 8).


Gérer des réunions


L’outil Réunions d’Office Groove 2007 peut être utilisé pour planifier, diriger et enregistrer des réunions d’équipe récurrentes pour les projets. L’Assistant Réunions facilite la configuration en vous guidant tout au long du processus. Tous les membres de l’espace de travail peuvent ajouter des informations à une nouvelle réunion. Vous pouvez donc développer des agendas de manière collaborative plutôt que d’accaparer une seule personne à récupérer les entrées auprès de l’équipe. Au cours de la réunion, la personne qui rédige le compte-rendu peut insérer l’agenda dans un espace de prise de notes et enregistrer les comptes-rendus de réunion en temps réel. Les participants peuvent observer les comptes-rendus à mesure qu’ils sont saisis. À la fin de la réunion, des éléments d’action peuvent être enregistrés et attribués aux membres de l’équipe. Les éléments d’agenda, les comptes-rendus et les éléments d’action des précédentes réunions peuvent également être copiés dans les futures réunions.

Note : Les outils Réunions et Calendrier vous aideront à vous focaliser sur les tâches, les événements et les jalons du projet ou de l’activité pour lesquels l’espace de travail Office Groove 2007 a été créé. Pour ce qui concerne la gestion des calendriers, des tâches et des contacts personnels, vous continuerez à utiliser Microsoft Office Outlook 2007.



Travailler avec des formulaires

Si vous utilisez souvent des formulaires pour collecter des données liées à votre projet ou travailler avec, vous apprécierez les outils Formulaires et Formulaires InfoPath d’Office Groove 2007. Vous pouvez créer vos propres formulaires personnalisés directement dans la fenêtre de l’espace de travail en utilisant l’outil Formulaires Groove, qui vous permet de nommer le formulaire, de choisir les champs à inclure, de sélectionner le style du formulaire, etc. L’outil Formulaires InfoPath permet pour sa part d’importer les formulaires que vous avez créés en utilisant Microsoft Office InfoPath 2007, ce qui offre l’avantage de pouvoir travailler avec des formulaires déjà utilisés dans votre service ou votre entreprise.


Suivi des problèmes

L’outil Suivi des problèmes, un outil Formulaires Groove prédéfini inclus dans le programme, fournit un moyen de récolter des informations concernant des tâches, des problèmes ou des processus requérant une action de suivi. Que vous travailliez à résoudre un problème technique, un incident de production ou un défi personnel, vous pouvez documenter le problème, ajouter des pièces jointes de support et tenir registre du progrès de la résolution dans Office Groove 2007. Lorsque vous ouvrez le menu Fichier et choisissez Nouveau pour ajouter un nouveau problème à suivre, le formulaire présenté dans la figure 10 apparaît.

Astuce : Vous pouvez modifier le formulaire de suivi des problèmes afin de l’adapter à vos besoins en cliquant sur les boutons Ajouter (le petit signe plus en bleu) et en entrant vos propres catégories.



Créer une bibliothèque d’images

Avec certains projets, vous devrez pouvoir collecter et organiser des images — par exemple, des graphiques pour le projet commercial, des photos pour un rapport annuel ou des schémas pour un nouveau produit dont vous organisez le lancement. Lorsque vous ajoutez l’outil Images à Office Groove 2007, vous créez une bibliothèque d’images à laquelle votre équipe tout entière peut faire référence et accéder à mesure que le projet se développe. Cliquez sur Ajouter des images pour commencer et utilisez les outils de navigation au-dessus des images pour parcourir les images ajoutées.

Astuce : Vous pouvez aisément retirer des outils en cliquant sur leur onglet du bouton droit et en choisissant Supprimer.


Sommaire
Réduire
DOSSIER

Formation initiale : Les entreprises de plus en plus influentes

Certifications : Une réelle valeur ajoutée sur un CV ?

E-learning : Comment il trouve sa place dans les formations

MAGAZINE

• Reportage à Berlin, chez Strato AG : un datacenter de classe industrielle


RÉSEAUX & SÉCURITÉ

• Linux Journal : Créer un filtre de contenus Internet avec deux outils Open Source, DansGuardian et Tinyproxy

• TENDANCES 2007 Sécurité, le jeu du maillon faible

SERVEURS & SYSTÈMES

• TENDANCES 2007 : L’année des processeurs à quatre cœurs

• TENDANCES 2007 : Stockage, la guerre des densités


LOGICIELS & APPLICATIONS

• TENDANCES 2007 : Architectures, la route de la SOA

• TENDANCES 2007 : Développement, vers une automatisation complète ?

• TENDANCES 2007 : Logiciel, vers la fin des applications ?


POSTE DE TRAVAIL

• TENDANCES 2007  : Mobilité, un intérêt croissant

• Bonnes Feuilles : GROOVE, pour collaborer simplement dans Office 2007


ITINÉRAIRES

• Métiers : Microsoft s’allie avec l’UNÉDIC et le FAFIEC pour développer les embauches

• Législation  : À la recherche de preuves informatiques licites

• Livres : l’ouvrage de référence sur SQL Server 2005 et le TCP/IP en pratique
Edito
Réduire
Un rapport de plus mais pas de trop

newstef26526_Copier5.gifDans un rapport sur l’économie de l’immatériel, remis à Thierry Breton, les auteurs Maurice Lévy et Jean-Pierre Jouyet ont réalisé un travail tout-à-fait unique. « Nous avons commencé notre mission par la recherche d’exemples, de travaux ou de réflexions similaires à l’étranger, et force est de constater que rien de semblable ni d’aussi complet n’a été réalisé à ce jour », précisent-ils dans le courrier introductif adressé à Monsieur Breton.

à nous maintenant de constater que ce document de près de 200 pages se révèle tout-à-fait complet, précis et documenté et ne verse ni dans les lantiponnages ni dans les ravauderies. Certains pousseront sans doute des hauts cris au vu des propositions envisagées. Pour notre part, nous considérons que ce rapport entrouvre un certain nombre de
portes sans verser dans le consensus mou propre à satisfaire (ou non) tout le monde.

Ainsi en est-il du système des brevets, pour lesquels nous avons de longue date exprimé notre sentiment, à savoir que l’opposition systématique des partisans et des opposants n’avait que peu de sens, du point de vue pratique, technique, comme économique. Exprimé plus simplement notre position est la suivante : tout n’est pas brevetable dans le logiciel.

Ainsi, lorsque l’on voit que Google brevette la présentation des résultats de ses recherches, on se dit que Ubu va régner encore longtemps. En revanche, il nous paraît sensé de pourvoir breveter une invention, y compris dans le logiciel, tout le monde ne souhaitant pas évoluer dans le système du libre.
Ce n’est pas en quelques lignes que nous pourrons résumer ce dossier que nous n’avons d’ailleurs pas fini d’éplucher, tant son contenu est dense et propice à la réflexion. Aussi, nous vous recommandons de vous le procurer sur le site du ministère des Finances. À la lumière du sapin, vous passerez de studieuses Fêtes de fin d’année…

Pour revenir et terminer sur les brevets, si les auteurs proposent notamment une refonte du système des brevets et de l’Office européen des brevets, s’ils souhaitent qu’un brevet déposé en France soit valable dans l’ensemble de l’Union Européenne, s’ils encouragent la création d’une juridiction spécialisée pour les questions de propriété intellectuelle, ils ne sont pas favorables à la brevetabilité du logiciel en tant que tel. La proposition n° 39, qui encourage le brevet de toute invention mise en œuvre par un logiciel dès lors qu’elle présente un effet technique, ressemble à s’y méprendre à une proposition faite jadis par l’ancien Premier ministre et actuel député européen Michel Rocard.

Dans les prochains numéros, nous serions ravis de pouvoir discuter avec vous de ce rapport et recueillir vos avis. N’hésitez pas à nous faire part de vos remarques sur ce sujet, et sur d’autres, à l’adresse suivante : redaction@linformaticien.fr

Dans l’intervalle et au nom de l’ensemble des collaborateurs du journal, permettez-moi de vous présenter nos meilleurs vœux pour l’année 2007.

Stéphane LARCHER
Magazine
Réduire
Strato AG
Un datacenter de classe industrielle
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Les hébergeurs allemands, comme 1&1 et Strato, lorgnent sur le marché français depuis quelques mois. Sur le secteur, ces deux acteurs arrivent avec leurs armes. Chez Strato, cela ressemble plutôt à l’artillerie lourde, façon Krupp. Démonstration avec une visite guidée du datacenter berlinois de l’hébergeur.

Server_rz_blue12147_Copier5.gif

Tout près du centre de Berlin, sous les aspects d’un modeste bâtiment, avec pour seule raison sociale affichée le nom d’une entreprise dans le secteur de la métallurgie, se cache l’un des deux datacenters de Strato AG. Qui ça ? Strato AG, une jeune entreprise fondée dans les années 90 et qui a gagné ses lettres de noblesse en se hissant à la deuxième place du classement des hébergeurs en Allemagne. « Quand on parle de métallurgie, on ne se trompe pas trop », fait remarquer le directeur technique de Strato, un Français du nom de Julien Ardisson, qui ajoute « dans ce datacenter sont regroupés 18 000 serveurs en cinq salles ». À l’œil, quand vous entrez dans l’une des salles, vous ne voyez qu’une voie lactée de points verts qui clignotent de partout. Lumière allumée, vous avez l’impression d’être perdu dans un champ de racks serveurs ! Quatre personnes seulement s’occupent de l’ensemble. La performance ne s’arrête pas là…


Ceinture et bretelles

Le centre de Berlin accueille les serveurs dédiés proposés par l’hébergeur à ses clients. Les offres pour les serveurs mutualisés sont hébergées dans l’autre centre de Strato AG à Karlsruhe. Ce centre compte deux fois plus de serveurs que celui de Berlin. Le centre visité sert aussi à la réplication des données du centre de Karlsruhe en synchrone. La réplication est elle-même répliquée dans une autre salle du centre de Berlin. Cette solution « ceinture et bretelles » de l’hébergeur allemand assure une sauvegarde des données des clients sur trois mois avec les différentes versions. Cette industrialisation du métier de l’hébergeur se retrouve directement dans la conception du centre de données de Berlin.
Sa structure est à différents niveaux. Au rez-de-chaussée, les infrastructures : six transformateurs sur deux rings apportent l’alimentation électrique pour les salles serveurs. Ils sont couplés à quatre moteurs Diesel qui se déclenchent si des incidents provenaient sur les transformateurs. Le système est doublé dans les salles machines par des batteries qui permettent de lisser les micro-coupures et les sautes de tension pour disposer d’une alimentation continue et toujours égale.

Premier poste de dépense dans le centre, l’alimentation a été particulièrement soignée avec des plans éprouvés et essayés tous les mois lors des reprises sur des incidents. Le dernier test a consisté à couper l’alimentation centrale et à vérifier le processus de reprise sur un incident de cette ampleur.
La climatisation est à la hauteur et s’appuie sur un refroidissement par eau et par réinjection de l’air chaud dégagé par les serveurs via des hottes dans le circuit de refroidissement. Le système permet d’avoir une température constante malgré la chaleur dégagée par les milliers de serveurs des salles. La climatisation emplit le niveau supérieur du bâtiment. Au premier étage se trouvent les salles de serveurs. L’industrialisation y a aussi ses effets.

STRATO-Damian-Schmidt_29506.gifDamian Schmidt, le président de Strato AG explique que ce métier ne repose pas sur de très grosses marges : « Et sur le marché allemand, qui est très exigeant en termes de qualités de services et sur les technologies, seule la possibilité de réaliser des économies d’échelle nous permet de proposer les offres qui correspondent aux besoins de nos clients. »
Dans les faits, il ne faut rechercher dans les centres de Strato AG les variétés de marques de constructeurs que l’on peut rencontrer ailleurs. Ici, du rack aux serveurs, tout a été conçu, validé et testé pour correspondre aux besoins de rapport qualité/prix pour pouvoir proposer l’offre la plus compétitive. Ce ne sont pas que de vains mots. La dernière promotion de Strato consiste à offrir la deuxième année d’hébergement sur certains packages si le client s’engage avant Noël. Cette offre n’est hélas pas proposée en France pour l’instant.
Les racks intègrent 44 serveurs 1U et sont tous sur le même modèle. Les serveurs comportent tout de même trois configurations différentes selon les processeurs placés dans les serveurs.
Strato a été le premier à intégrer les doubles cœurs d’AMD en provenance de l’usine de Dresde du fondeur. « Nous les avons reçus à peine refroidis », ironise le responsable technique du centre. Julien Ardisson ajoute : « Nous regardons pour intégrer les quatre cœurs dans notre offre. » Ce n’est cependant qu’après toute une batterie de tests, et s’ils sont concluants, que ceux-ci seront placés dans les machines dans les centres de données de l’hébergeur. Les deux constructeurs présents dans ce data center sont Supermicro et MSI. Sun est aussi un grand partenaire, mais pour les serveurs mutualisés présents à Karlsruhe.

Les nouveaux serveurs sont testés à chaque réception avant d’être intégrés dans les salles de serveurs. Pour les liaisons réseau, le centre de données est connecté à cinq réseaux différents, dont ceux de KPN et Lambda. Au dernier étage se trouve les salles accueillant la climatisation. Cette approche industrielle permet à Strato d’héberger 2,5 millions de domaines et de traiter des millions de mails par jour. Il est possible de souscrire à des services additionnels, comme l’ajout d’une console KVM pour l’administration de son serveur à distance.
Cette industrialisation n’a qu’un but que nous explique Carsten Zorger, le responsable des relations avec la presse de Strato : « Nous voulons les meilleurs outils à destination des entreprises pour pouvoir ensuite les proposer à nos clients du marché de masse avec des prix concurrentiels et une qualité irréprochable. »

Le support comme différentiateur

STRATO-Data-Centre-Pow12157.gifCes solutions technologiques de haut niveau auraient peu d’objet si le service d’accompagnement proposé n’était pas de même niveau. Le responsable du support client, le Dr Gerwin Zeibig, indique : « Nous avons le support le plus poli d’Europe, et ce, quel que soit l’humeur du client » ! Ce support aux clients comprend une large cellule pour le marché allemand et un support international, en différentes langues pour les clients hors Allemagne.

Gerwin Zeibig ajoute : « Chaque mois, nous organisons des sessions d’embauche : seuls 1 ou 2 % des candidats sont retenus. » À la différence des centres d’appels ou de support en France, la moyenne d’âge est plus élevée, près de 30 ans. La plupart ont des niveaux d’études équivalents à Bac + 2, « Même si la connaissance de l’informatique n’est pas un prérequis », explique le responsable du support. Après une formation au produit, les débutants passent par une période probatoire avec un tuteur qui peu à peu les amène au niveau de compétence requis. Ils sont autonomes au bout de deux mois et commencent à prendre des appels ou des mails en solo.
Tous les outils utilisés par le support sont développés en interne. « Des essais de produits commerciaux dans le passé, nous ont fait revenir à ce choix. »
Le support international est composé d’équipes qui répondent directement en français, espagnol, italien, néerlandais et anglais. Ces équipes répondent aux sollicitations par téléphone ou mails tous les jours de la semaine de 8 à 23 heures.
L’équipe britannique se trouve dans un local à part, non pas du fait de sa spécificité ou de son côté insulaire, mais parce qu’elle est la plus étoffée. Elle réalise le support pour tous les clients européens lors des week-ends.

Les efforts en formation sont conséquents pour les employés de ce support qui sont régulièrement mis à niveau sur les nouvelles offres et sur la plate-forme technique de l’hébergeur. Gerwin Zeibig précise que les salariés de ce support ne sont pas sollicités pour faire des offres de vente « même s’ils enregistrent souvent des demandes en ce sens par les clients ». Et d’ajouter : « Le support n’est pas l’endroit le plus adapté pour proposer des offres aux clients. Ces derniers contactent le support pour être rassurés et trouver une réponse à leurs demandes. » Ici, on ne confond pas support et télémarketing !
Linux Journal
Réduire
Créer un filtre de contenus Internet avec DansGuardian et Tinyproxy
par Donald Emmack, traduction : Noé BARAT

Comment mettre en œuvre deux outils Open Source pour sécuriser l’accès Internet et filtrer les contenus Web à partir d’un PC sous Linux.

Les utilisateurs de Microsoft adoptent peu à peu le système d’exploitation Linux et s’attendent naturellement à trouver des filtres de contenus, comme ceux qu’ils étaient habitués à employer sous Windows XP. Souvent, les nouveaux venus qui adoptent Linux au travail décident de poursuivre l’expérience sur leurs PC personnels chez eux. Puisque beaucoup de gens s’opposent à ne pas entraver la libre circulation d’informations et d’images sur Internet, un système de filtrage de contenu est une priorité pour nombre d’entre-nous, parce que les parents partagent souvent leurs ordinateurs avec des enfants, et parce que leur surveillance constante par un adulte n’est pas toujours possible.
L’emploi conjoint de DansGuardian et de Tinyproxy viendra en aide aux parents qui désirent filtrer le contenu d’Internet quand ils ne sont pas présents près de l’ordinateur familial. DansGuardian est un filtre de contenu souple, qui est aussi un logiciel Open Source si vous l’utilisez dans le cadre d’une utilisation non commerciale. Si vous désirez employer DansGuardian dans un cadre commercial, vous pourrez acheter une licence ou acheter SmoothGuardian. Tinyproxy travaille conjointement avec DansGuardian : il s’agit également d’un logiciel Open Source qui comprend et évalue l’information passant par l’ordinateur. Ensemble, ils fournissent des commandes administratives pour bloquer le contenu répréhensible en provenance d’Internet.


Filtrage de contenu

DansGuardian représente une collection de filtres « pass through » utilisés pour arrêter des pages Web d’Internet selon des critères de mots, d’expressions ou d’images que vous considérez comme impropre ou ne voulez pas que d’autres voient. Les filtres de DansGuardian agissent en tant qu’intermédiaires entre le navigateur client, comme Firefox et Internet. Firefox effectue une demande d’information à DansGuardian ; puis DansGuardian passe l’information à Tinyproxy, qui communique lui-même avec Internet. L’information revenant d’Internet traverse à son tour Tinyproxy et DansGuardian avant qu’elle ne termine son parcours sur le navigateur client.
Seule l’information approuvée par les filtres apparaîtra dans la fenêtre du navigateur. DansGuardian bloque les pages Web enfreignant les règles et remplace dans la fenêtre du navigateur le contenu non désiré par un écran de sécurité expliquant que l’accès a été rejeté (« access denied »). Nous n’avons pas la prétention de vous donner une description technique complète du procédé de filtrage. En fait, la manière dont Tinyproxy collabore avec DansGuardian est beaucoup plus complexe et intéressante que ça. Si vous voulez comprendre comment ce mécanisme fonctionne, consultez la page d’événements de DansGuardian (« Flow of Events »). C’est à ce niveau que vous pourrez trouver une explication plus approfondie du filtrage et de la transmission des données entre chaque programme et Internet.
Il est important de savoir que vous pouvez définir explicitement des mots et des URL qui seront bloqués par DansGuardian. En plus des pages Web contenant du texte, DansGuardian peut filtrer des images et également empêcher le téléchargement de certains fichiers. Cette combinaison de filtrage est supérieure à d’autres méthodes qui bloquent seulement l’accès à une liste d’URL interdites. Avec plus de 20 fichiers différents de configuration, l’installation de DansGuardian peut sembler compliquée à des utilisateurs nouveaux sous Linux. Cependant, ces fichiers de configuration contiennent des instructions claires sur la manière de les éditer pour vos besoins. Au cours de nos essais, nous n’avons pas eu besoin de réaliser beaucoup de changements, parce que nous avons trouvé que le filtrage par défaut était presque idéal pour un usage familial.

illustration1.gif
Figure 1. Vous devez modifier le réglage du proxy de Firefox pour filtrer le contenu en provenance d’Internet.


L’installation

D’abord, vous devez installer et configurer DansGuardian et Tinyproxy. En second lieu, il est important d’ajuster vos paramètres de bureau pour empêcher que des utilisateurs ne contournent facilement le filtrage de contenu. Avant l’installation, jetez un œil sur vos dépôts de paquets logiciel de votre distribution pour vous assurer qu’ils comprennent bien DansGuardian et Tinyproxy.
La manière la plus simple d’installer ces programmes est d’employer le gestionnaire de paquets graphique de votre distribution comme YaST sous SUSE ou encore synaptic. Sous Debian/Ubuntu, les utilisateurs pourront se contenter d’encoder sous root la ligne de commande apt-get install dansguardian tinyproxy.
NDT : nous vous recommandons plutôt : sudo aptitude install dansguardian tinyproxy.
Si vous n’avez pas ces applications à disposition dans vos dépôts, vous pouvez toujours vous en procurer le code source sur leurs sites Web respectifs. Après téléchargement, vous trouverez des instructions d’installation génériques dans le dossier nommé « INSTALL ».

illustration2.gif
Figure 2. Voici ce qui apparaîtra en cas de refus d’accès à une ressource sur Internet.


Configuration de DansGuardian et de Tinyproxy

Les étapes suivantes consistent à adapter certains fichiers de configuration pour Tinyproxy et DansGuardian. Nous avons utilisé Ubuntu Dapper Drake pour l’essai, et donc les illustrations ci-jointes sont spécifiques à cette distribution. D’autres distributions organisent leurs fichiers d’une manière semblable ; vous devrez juste chercher un peu plus loin pour trouver leurs répertoires d’installation. Pour configurer nos fichiers aux besoins du client, le seul outil nécessaire sera un simple éditeur de texte, tel que gedit sous Gnome.
Exécutez votre éditeur de texte, sous l’identité de l’utilisateur root, et ouvrez le fichier /etc/dansguardian/dansguardian.conf. Passez en revue ce fichier et changez-y les paramètres filterport, proxyip et proxyport pour qu’ils deviennent conformes à ce qui est montré ci-dessous :

# Indiquez ici le numéro de port mis à l’écoute
    "par DansGuardian
filterport = 8080
# L’adresse ip du proxy par défaut est celle
    "de l’interface loopback
proxyip = 127.0.0.1
# DansGuardian se connecte au proxy via le numéro
    " de port proxyport :
proxyport = 3128

Selon votre distribution, il peut s’avérer aussi nécessaire de commenter la ligne débutant par « UNCONFIGURED ». DansGuardian se connecte généralement au port n° 3 128 par défaut, parce que c’est le port employé par le proxy le plus populaire, appelé Squid. Nous pouvons changer ce défaut en y indiquant le numéro de port employé par Tinyproxy (le n° 8 888), ou nous pouvons changer le port de Tinyproxy. Dans ce cas, nous devrons faire en sorte que le port de Tinyproxy corresponde au port de Squid, c’est-à-dire 3 128. Pour Tinyproxy, éditez le fichier /etc/tinyproxy/tinyproxy.conf en étant root.
Parcourez ce fichier, et modifiez-y au besoin les paramètres User, Group, Port et ViaProxyName. Le point important à ne pas rater est de modifier le port que Tinyproxy écoutera pour que DansGuardian puisse le contacter, c’est-à-dire le n° 3 128 :

# Tinyproxy est à l’écoute sur le port 3128
#
Port 3128

Une fois que vous avez effectué les changements, lancez tinyproxy en ligne de commande, ou si vous êtes sous Ubuntu, tapez sudo /etc/init.d/tinyproxy. Cette action démarrera le proxy et vous êtes maintenant prêt à terminer l’installation en ajustant les préférences de votre navigateur. Si vous voulez en apprendre plus, consultez la documentation de DansGuardian.


Ajustez les préférences de votre navigateur

Ubuntu est livré avec Firefox comme navigateur préféré, et par conséquent les instructions qui suivent sont spécifiques à celui-ci. D’autres navigateurs peuvent être configurés de la même manière et les instructions pour y parvenir seront quasi identiques. Notre dernière étape d’installation consistera à placer le navigateur à l’écoute de DansGuardian sur le port 8080 : ainsi, les données lues sur Internet proviendront uniquement de DansGuardian et de Tinyproxy. Avec Firefox, dirigez-vous vers Edit -> Preferences -> General Tab -> Connection Settings comme montré sur la figure 1.

illustration3.gif
Figure 3. Vous pouvez restreindre les droits d’administration des utilisateurs.

Choisissez  la configuration manuelle du proxy, et encodez localhost et le port 8080. Ceci suppose que vous ayez déjà installé et démarré DansGuardian et Tinyproxy sur chaque poste de travail. Si vous avez mis en place DansGuardian et Tinyproxy sur un serveur séparé, alors vous devez inscrire le nom ou l’adresse IP de cette machine serveur qui héberge DansGuardian et Tinyproxy au lieu de localhost  comme serveur HTTP proxy.

Relancez votre navigateur et testez le comportement des filtres. En cas de refus d’accès vous devriez visualiser un écran tel que celui représenté par la figure 2.

Avant d’aller plus loin, c’est une bonne idée de traquer les problèmes potentiels que vous pourriez rencontrer avec les définitions des filtres par défaut. Par exemple, nous téléchargeons souvent des fichiers .tar et d’autres fichiers exécutables. Or, le fichier  de configuration par défaut empêche de télécharger de tels fichiers.

Pour résoudre ce problème, vous devez éditer le fichier bannedextensionlist.txt, et placez un « # » pour mettre en commentaire les extensions de fichiers que vous ne désirez pas arrêter. Pour être complet, vous devriez éditer l’ensemble des fichiers .txt de configuration par défaut de DansGuardian pour déterminer la manière dont vous voulez que les filtres réagissent. Cette approche est une bonne idée car se serait pour vous l’occasion d’en apprendre plus sur les puissantes possibilités de cette application.


Quelques points faibles

Aucun système n’étant parfait, il existe plusieurs manières de contourner DansGuardian et Tinyproxy. La plus évidente est la facilité avec laquelle les utilisateurs peuvent passer outre le proxy et les filtres. En effet, sans précaution préalable, un utilisateur peut facilement reconstituer les préférences de Firefox pour obtenir à nouveau une connexion directe à internet, qui passera outre DansGuardian et Tinyproxy. Autrement dit, une fois cette manipulation effectuée, les utilisateurs obtiendront un accès sans restriction à internet.

Cependant, nous pouvons sécuriser les filtres de DansGuardian en forçant toute les données communiquées par Internet à passer par le port 8080. Un lien sur la page Web de documentation de DansGuardian explique une méthode pour forcer les utilisateurs à passer par les filtres quelles que que soient les voies de communication empruntées. Pour l’utilisateur débutant, une approche plus facile est d’établir un plan de filtrage qui tient compte de privilèges restreints (NDT : pour un utilisateur donné), c’est-à-dire le verrouillage des préférences du navigateur qui garantira que les filtres resteront en place à chaque redémarrage de la machine.
Pour réaliser un essai, nous avons créé un nouveau compte utilisateur « test » sous Ubuntu (voir la figure 3).
En utilisant les dispositifs de contrôle des privilèges utilisateur, nous avons sévèrement limité les possibilités de l’utilisateur test. Cette sélection de privilèges pourrait convenir à n’importe quel utilisateur non digne de confiance. Les utilitaires « update-rc.d » et « fcconf » peuvent définir quels services s’exécutent lors de l’initialisation du système. De notre côté, nous avons pris l’habitude d’employer le Boot-Up Manager BUM pour lancer DansGuardian et Tinyproxy à chaque démarrage.

illustration4.gif
Figure 4. Nous demandons à Ubuntu de charger DansGuardian et Tinyproxy à chaque redémarrage de Linux.

Au final, nous avons décidé de faire le choix de restreindre l’accès uniquement aux préférences de Firefox. Cette restriction n’est pas aussi difficile à établir que vous ne pourriez le penser. Un article intitulé « How to lock down Mozilla Preferences for LTSP », par Warren Togami, décrit les techniques possibles dans le détail. Après avoir fouillé sur Internet, nous avons choisi d’ajouter des lignes de type lockPref à notre fichier de configuration Firefox pour empêcher les utilisateurs non privilégiés de modifier les paramètres du proxy. Nous avons édité le fichier /usr/lib/firefox/firefox.cfg pour le transformer (voir l’illustration 5).

Après avoir sauvegardé le fichier et relancé Firefox, l’utilisateur test ne pourra plus remettre à zéro les préférences du proxy. De plus, d’autres utilisateurs sans privilèges administratifs ne pourront plus non plus modifier les préférences et ainsi contourner les filtres.
Maintenance

Après avoir configuré les filtres selon vos désirs, il est important de se rendre compte que certains paramètres devront souvent être mis à jour. Nous pensons à la liste des URL placées sur la liste noire, et aux nouveaux mots clés susceptibles d’apparaître au fil du temps. En surfant sur le lien Extras, du site Web consacré à DansGuardian, vous trouverez des informations complémentaires au sujet de ces listes noires. En outre, plusieurs utilisateurs ont contribué à créer des scripts d’automatisation de génération de telles listes noires. Comme alternative, le site URLblacklist.com permet à de nouveaux utilisateurs de télécharger leur première liste noire librement. Par après, vous devrez vous inscrire pour accéder à un abonnement périodique de la mise à jour de ce fichier. Les instructions pour adapter ce fichier à DansGuardian figurent sur leur site Web.
Un autre point à tenir compte est l’impact du proxy et des filtres sur la vitesse de surfing au quotidien. Quelques utilisateurs pourront souffrir d’un léger ralentissement. Lors de nos propres essais, nous avons pu le remarquer ; mais aussi constater quelques problèmes dus à la mise en cache des données par Firefox. Pour réinitialiser ce cache, vous pouvez utiliser la combinaison de touches Ctrl-Shift-Del sous Firefox. Cette action a résolu immédiatement nos problèmes de cache. De temps en temps, il a été nécessaire de relancer Tinyproxy, et après avoir fait cela, notre vitesse d’exécution sur Internet a été améliorée. Bien que gênants parfois, ces petits tracas représentent des défauts acceptables.

illustration5.gif
Figure 5. Les trois dernières lignes forcent le proxy selon les paramètres localhost et port 8080.


Observation des fichiers log

DansGuardian et Tinyproxy créent des fichiers de journalisation que les administrateurs peuvent passer en revue. Sous l’arborescence /var/log, vous devriez retrouver les logs de DansGuardian et Tinyproxy. En utilisant un éditeur, il est facile d’ouvrir ces fichiers et de rechercher certains éléments pour découvrir le comportement d’un utilisateur. Les données sont stockées séquentiellement et les commentaires clairs facilitent la compréhension des différents champs. Dans le cas spécifique de DansGuardian, il existe un script utilisateur dont le rôle est de rechercher et d’afficher des résultats dans un format facilement compréhensible. Un dispositif non incorporé à DansGuardian est la capacité d’expédier par e-mail le fichier log à un tiers pour effectuer une surveillance. Ceci pourrait être fort dissuasif pour certains s’ils prenaient conscience qu’une personne contrôle leurs comportements sur Internet.  


Quelques réflexions pour terminer

Avant de vous décider à appliquer cette solution de filtrage de contenu, considérez vos besoins à long terme. Si vous possédez un seul ordinateur et que vous ne voulez pas bricoler avec des fichiers de configuration, DansGuardian est probablement un bon choix. Alternativement, SmoothGuardian que vous pouvez acheter pour environ 90 dollars l’est aussi. En outre, ce dernier logiciel inclut une interface Web facile à utiliser pour réaliser une installation non technique.

Cela n’empêche pas l’installation de DansGuardian et de Tinyproxy d’être en parfaite conformité avec le niveau de connaissance d’un nouvel utilisateur sous Linux, et sa gratuité s’adaptera à n’importe quel budget. En utilisant cet article et ses références comme guide, vous ne devriez pas rencontrer trop de difficulté. Et même si vous butez sur quelques problèmes, l’utilisation de Google pour rechercher des solutions est à la portée de tout le monde. Nous pensons que vous trouverez les possibilités de filtrages flexibles et le coût du ralentissement à travers le proxy léger, et donc que vous en tirerez comme conclusion qu’il s’agit d’une bonne combinaison pour de petits environnements réseau.


Donald Emmack est associé gérant de la société IntelliGents. Il travaille intensivement en tant qu’auteur et conseiller commercial en Amérique du Nord. Vous pouvez le joindre à l’adresse donald@theintelligents.com.

Liens utiles

• DansGuardian « Flow of events » : dansguardian.org/?page=dgflow
• DansGuardian download page : dansguardian.org/?page=download
• Tinyproxy download page : tinyproxy.sourceforge.net
• DansGuardian documentation : www.vollmar.ch/dansguardian-e.html
• « HOWTO lockdown Mozilla preferences for LTSP » by Warren Togami : togami.com/~warren/guides/mozlockdown
• DansGuardian extras link : dansguardian.org/?page=extras
• URLblacklist.com : urlblacklist.com
• Web content filtering portal : www.harvest.com.br/asp/afn/dg.nsf
Architectures
Réduire
Architectures
La route de la SOA
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Pour la première fois, peut-être, les technologies informatiques risquent de tenir leurs promesses. On a longtemps espéré que l’informatique puisse, à l’instar des autres industries, reposer sur des standards communs, s’intégrer facilement dans les environnements existants et apporter de la valeur aux entreprises ; cette fois, les architectures orientées services ou Service Oriented Architecture (SOA) semblent apporter la réponse technologique qui le permette.

archi.jpg
Schema d’exemple d’une architecture soa.
Plus qu’une évolution technologique, les architectures orientées services révolutionnent peu à peu toute l’industrie informatique. Prévoir leur succès n’est pas très compliqué ! Tous les acteurs de l’industrie s’y rallient. Les éditeurs réécrivent leurs logiciels pour qu’ils puissent être supportés par ces architectures. Les grandes entreprises les mettent en place, ou y pensent sérieusement, pour rénover leurs systèmes d’informations. Comme nous l’avons déjà évoqué dans un numéro récent de l’Informaticien, près de 60 % des grandes entreprises sont en phase de réflexion pour mettre en œuvre une architecture SOA.


Une réactivité à toute épreuve

Lancée par le Gartner, cette notion définit un modèle d’interaction applicative mettant en œuvre des connexions lâches, mais une intégration forte entre des composants logiciels. Un service se définit comme une action exécutée par un composant fournisseur à l’attention d’un composant consommateur de ce service. Le lien entre les deux se réalise par des interfaces d’invocation et des vocabulaires de descriptions de données communs à ces composants. Là, les données manipulées sont dissociées du traitement qui leur est appliqué. Le principal avantage de l’architecture ainsi conçue ? Une réactivité à toute épreuve pour s’adapter aux évolutions des affaires de l’entreprise.
Les autres avantages de ces architectures sont nombreux. Outre, la simplification des traitements d’intégration inter-applicatifs, les architectures orientées services autorisent la rénovation de vieilles applications. Certains secteurs d’activités comme les banques sont à la tête d’importants actifs informatiques dans des environnements mainframe avec des applications métier cumulant plusieurs centaines de milliers de lignes de cobol. Réécrire toutes ces applications seraient un chantier pharaonique sans aucune justification économique.
Par ces possibilités de dissocier les systèmes de la manière dont les composants sont exposés, les architectures SOA permettent de rénover ces systèmes anciens ou de leur assurer une plus grande pérennité.

La deuxième étape de la révolution

Les avantages et les possibilités des architectures SOA ne font plus débat. Aujourd’hui, les questions se posent sur les mises en œuvre et l’administration de ces solutions. Si les architectures SOA apportent une solution aux échanges inter-applicatifs, elles ne simplifient pas les problèmes métier. Elles changent de plus la manière de concevoir le système d’information en mettant au centre des préoccupations les besoins métier en modélisant les processus de l’entreprise puis en les mettant en œuvre sous forme de services.

Ces opérations demandent une très grande rigueur et une forte automatisation. Elles sont aussi très structurantes. Les outils du marché, quels que soient les éditeurs, IBM, BEA, Software AG, Tibco, proposent des solutions complètes pour mettre en œuvre ces architectures. Celles-ci comprennent le plus souvent un modeleur de processus, un référentiel pour les services, un studio de développement pour réaliser les couches d’interfaces ou d’invocation et des outils de suivi de la performance de ces services.

L’année 2007 devrait donc voir les premiers retours notables sur la mise en œuvre de tels environnements. Ce ne sera que le début d’une vague qui, à terme, touchera toutes les entreprises, même de taille moins grande que dans les projets actuels. La route de la SOA est grande ouverte pour les mois à venir !
Développement
Réduire
Développement
Vers une automatisation complète ?
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

CertifCMMI.jpg
Les différents niveaux de certification de CMMI.
L’impact de la révolution SOA ne concerne pas seulement les infrastructures ou les applications. La manière de les concevoir et de les construire évolue aussi. À terme se pose la question du destin des développeurs dans l’industrie informatique. Pris en tenaille entre une approche rigoureuse par les coûts et des demandes de plus en plus fréquentes de changements des outils logiciels ou d’adaptations à l’activité de l’entreprise, les services informatiques se doivent de se doter d’outils d’industrialisation de leur travail.


Les applications vont bientôt ne plus se présenter sous la même forme. La manière de les développer aussi va évoluer. Bernard Ourghanlian, directeur technique de Microsoft France, a mis ce point en exergue récemment dans une présentation dans les locaux de l’éditeur de la rue de l’Université, à Paris, lors de la présentation des efforts de l’éditeur américain dans le secteur de l’interopérabilité : « Le développement des applications change. Auparavant, on développait en termes d’interface pour faire se parler deux applications. Aujourd’hui, avec l’approche service, on développe sur les protocoles la manière dont discute une application en général et non pas avec une autre application spécifique. »
Rob Levy, le CTO de BEA, ne partage pas tout-à-fait cet avis. « Le développement des applications aujourd’hui ajoute l’interface d’exposition au développement habituel. Cela lie le développement de l’application et son lien avec le reste, mais cela ne semble pas être un changement radical dans le développement des applications. »
Pourtant, l’arrivée des architectures SOA influence bien la manière de développer. Les architectures veulent apporter de la réactivité et de l’alignement entre les objectifs de l’entreprise et les composants de son système d’information. Ces objectifs varient souvent et demandent donc des méthodes de développement combinant réactivité et qualité en utilisant une industrialisation poussée. Les moyens de parvenir à ce but ne sont pas si nombreux.


Un cadre technologique normalisé

Bernard_Ourghanlian_1.jpg
Bernard Ourghanlian
Pour les plates-formes, le débat Java/.Net est toujours d’actualité, même si son acuité a perdu de son intensité. Les deux sont présents dans les entreprises. Ce contexte pourrait changer du fait qu’aujourd’hui les développements recherchent plus l’interopérabilité que les possibilités de porter les applications d’un environnement à l’autre.
Dans ce contexte, .Net pourrait à l’avenir prendre une place grandissante. Il ne faut cependant pas enterrer trop vite le Java, qui conserve pour lui un historique de grands projets et dont la stabilité ne fait pas débat. De plus, les dernières versions de ce langage/architecture comblent des lacunes sur de nombreux points, ce qui en ravive l’intérêt. Le fait qu’il soit désormais Open Source pourrait aussi faire basculer nombre de développeurs dans son camp.
Les deux technologies privilégient cependant des approches méthodologiques privilégiant la modélisation. Peu à peu, le modèle MDA (Model Driven Architecture) s’impose doucement. Les outils de modélisation, s’appuyant souvent sur UML2 (Unified Modeling Language), sont présents dans la plupart des suites de développement du marché, que ce soit Borland, Compuware, Telelogic, Rational, Microsoft… Longtemps, ces modèles connaissaient leurs limites en n’autorisant que la génération du squelette d’une application. Les progrès des moteurs de génération de code et une standardisation plus poussée d’UML et d’OCL (Object Constraint Language) permettent désormais de générer l’ensemble d’une application.


La maturité des langages de scripting


L’« usine à logiciel » de Netfective, BluAge, qui recourt à une implémentation pragmatique de MDA, sépare la construction fonctionnelle de la construction technique. L’outil se concentre sur le modèle pour décrire de manière itérative les processus utilisés par les utilisateurs finaux. Ceux-ci, directement associés à la construction du modèle, participent pleinement au projet. La dissociation de la couche technique autorise le paramétrage en fonction de la technologie utilisée par le client. L’outil propose un projet qui se décompose en trois phases : un atelier fonctionnel qui comprend une analyse détaillée du modèle et une maquette XHTML validée par les utilisateurs, la génération automatique de l’application, le test et le déploiement sur un serveur d’application.

L’éditeur assure que par son outil les coûts d’un projet atteignent ceux proposés par des sociétés de services en off-shore avec des délais de réalisation réduits de 50 % par rapport à un projet traditionnel.

2006 a de plus montré la maturité des langages de scripting dans les environnements Web. PHP et PERL ont désormais droit de citer dans les plus grandes organisations. Les techniques comme Ajax ou Ruby on Rails ont d’ailleurs mis en exergue les avantages de ces langages pour apporter du dynamisme et de la réactivité dans le monde du Web, le faisant même passer pour une nouvelle étape primordiale de cette technologie sous le vocable de Web 2.0.

Les apports technologiques sont indéniables mais les économistes s’interrogent aujourd’hui sur la validité du « business model » des entreprises issues de cette mouvance en ne comprenant pas bien comment ces entreprises vont pouvoir véritablement valoriser ces avantages.

Autre tendance technologique émergente, la programmation par aspect s’étend pour être le paradigme de développement de certains logiciels présents sur le marché.


Les vieux langages font de la résistance

Ces tendances nouvelles ne doivent pas occulter la place très importante que tiennent encore les langages que d’aucuns appelleraient « anciens ». Le Cobol tient toujours le haut du pavé avec une forte culture mainframe. Ces derniers systèmes connaissent d’ailleurs un regain de jeunesse avec leur migration vers des systèmes Linux et une plus grande ouverture possible grâce aux architectures SOA. L’un des autres avantages de cette architecture est de permettre au développeur de continuer de développer dans son langage de prédilection, tout en exposant ces développements vers des environnements différents. Dans ce contexte, le Cobol représente toujours des millions de lignes de code présentes et connaissant une croissance régulière chaque année !

Les C et C++ sont toujours des langages très employés. Dans le monde du logiciel embarqué, on remarque que le Fortran reste un langage très utilisé pour des développements scientifiques spécifiques.


Une approche par les coûts toujours présente


La philosophie même du produit BluAge confirme cette tendance. Il faut développer vite et bien, pour des coûts toujours en baisse. La plupart des outils sur le marché propose cette approche en se fondant sur le cycle de vie des applications et en industrialisant le cycle de développement.
À première vue, cette approche semble tout de même ne pas apporter les résultats escomptés : 50 % des projets dépassent les budgets initiaux. La plupart des échecs (80 %) sont dus à une mauvaise préparation ou planification. Des phases comme la détermination des besoins restent toujours critiques, malgré des outils de plus en plus fiables de recueil des besoins des utilisateurs.
À vouloir développer vite en regard du coût, on paye parfois plus cher qu’avec une approche par la qualité, comme celle qui est généralement choisie dans le monde de l’« embarqué ». Ces logiciels semblent toujours plus chers à la réalisation, mais ils sont destinés à tenir des dizaines d’années et connaissent une fiabilité que bon nombre de logiciels de gestion ou Web pourraient leur envier. Il est donc important, même dans cette approche industrielle, de mettre le curseur au bon endroit pour ne pas être confronté à de mauvaises surprises à la fin du projet.

L’industrialisation et la qualité du logiciel deviennent d’ailleurs indissociables. La plupart des SSII mettent en place des supports méthodologiques en interne sous forme de normes ISO ou de modèles comme le CMMI (Capable Maturity Model). Les processus qu’impliquent ces corpus de règles métier formalisent les procédures de qualité applicables au développement des applications, de l’outillage à mettre en place pour y parvenir et déclencher une spirale de la qualité dans ce secteur.


Un fabuleux destin pour les développeurs ?
Dans ce contexte, les développeurs peuvent douter de leur avenir. L’approche par les coûts ne fait que renforcer les craintes avec son corollaire, la montée en puissance de l’épouvantail de l’off-shore. Cependant, notre pays n’est pas un pionnier dans le domaine. Jusqu’à présent, les prestations off-shore ne représentent que 7 % du total des prestations effectuées en France. Même si ce chiffre devait doubler dans les cinq ou dix ans à venir, il n’y aurait toujours pas le feu à la maison développement. Le risque le plus important provient cependant d’une fonction du développeur à « deux vitesses ». Une classe de développeurs ne réunirait à terme que des assembleurs de composants ou d’objets métier développés par des développeurs haut de gamme combinant à la fois une maîtrise technique forte et des connaissances spécifiques sur certains secteurs d’activité. Ce dernier profil se rapproche de plus en plus de celui d’architecte. Cette tendance forte devrait se voir confirmer dans une étude menée par le Syntec Informatique sur le devenir des développeurs dont les résultats devraient être disponibles durant le premier semestre 2007. Le besoin de cette double compétence, ainsi qu’une industrialisation accrue pour lutter contre la concurrence des pays à bas salaires devraient cependant permettre aux développeurs de voir l’avenir de manière sereine. Il faut y ajouter que les nouvelles technologies dont nous parlons manquent de bras et de cerveaux pour être mises en œuvre. Une spécialisation plus forte, alliée à la bonne connaissance d’un secteur d’activité ou d’un métier, devrait être la bonne recette pour qu’un développeur new look continue d’occuper le devant de la scène de l’informatique. Malgré tous les outils existants, l’informatique reste surtout une affaire d’humains !


Métiers
Réduire
RECHERCHE DE COMPÉTENCES
Microsoft s’allie avec l’Unédic et le Fafiec
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Comme l’a indiqué Marc Carmignac de l’Unédic lors d’une récente rencontre avec la presse dans les locaux de Microsoft à Paris, « dans l’informatique, le problème n’est plus un problème de chômage mais un problème d’emploi. »


Pour beaucoup, les salariés compétents sont en poste ou difficilement disponibles pour les entreprises à la recherche de spécialistes. De plus, il est difficile de trouver les bonnes compétences parmi les personnes hors indemnisation du chômage ou avec des profils permettant d’être intégrés dans le secteur informatique après une formation courte ou moyenne.

Pourtant, les manques de compétences sont criants, en particulier sur les nouvelles technologies .Net ou le décisionnel. Malgré les efforts réalisés par l’éditeur avec MSEmploi.com ou les universités .Net, la carence est toujours là.

Pour combler ce déficit, Microsoft s’est rapproché de l’Unédic et du Fafiec, un organisme paritaire de prise en charge des frais de formation, afin d’élargir le creuset de personnes susceptibles d’intégrer les équipes des partenaires de l’éditeur.

Marc Carmignac le souligne : « Il est inadmissible que des gens compétents soient au chômage. Aujourd’hui, l’évolution de notre rôle va vers le financement de formations qui aboutissent à un emploi. On ne fonctionne plus sans les entreprises. »

Dans le principe, Microsoft centralise les demandes de compétences de ses partenaires. Le recrutement est mené par l’ANPE qui sélectionne les candidats. Le cas échéant, l’organisme propose une formation pour permettre au chômeur de correspondre le plus possible au profil demandé et être embauché par l’entreprise.
Cette formation peut être prise en charge en partie par le Fafiec. Cet organisme collecteur paritaire finance de manière mutualisée les actions de formation des entreprises du secteur informatique, met en œuvre cette politique de formation, conseille et accompagne les entreprises cotisantes, en particulier les PME, dans leurs démarches de formation.

Les technologies de Microsoft sont évidemment un grand pourvoyeur de formations en tous genres avec des centres de compétences spécifiques sur ces technologies. Il semblait donc naturel que les unités de formation de Microsoft se rapprochent de tels organismes pour apporter les compétences manquantes aux partenaires de l’éditeur.

Un bilan de ces opérations devrait être réalisé lors de la prochaine édition des universités .Net en mars prochain.




XRT élargit le contenu de ses cursus de formation

Le spécialiste des logiciels financiers XRT vient de lancer la 5ème saison du cursus de son université. Le programme aborde tous les niveaux de compétences requis sur les produits de l’éditeur, de l’initiation au perfectionnement.
Ces formations sont ouvertes aux étudiants des grandes écoles et peuvent s’effectuer dans le cadre du DIF (Droit Individuel à la Formation).
Dispensées au siège de l’éditeur à Paris, les formations sont réalisées par des instructeurs experts et s’adressent principalement aux trésoriers ou comptables qui vont mettre en place ou utilisent les solutions de l’éditeur.



Des sessions de formation gratuites chez Arctique

L’éditeur spécialisé en géostatistique met à disposition des demandeurs d’emploi un kit de ses produits qui comprend une licence d’un an avec des fonds de cartes sur la France et l’Europe et la compilation des données avec 600 indicateurs clés et les outils de sectorisation nécessaire. Le logiciel permet de visualiser sur des cartes une sectorisation commerciale, d’étudier l’implantation d’une société au niveau régional, de suivre la diffusion d’un phénomène national (épidémie, élections…)… Il s’adresse donc aux Directeurs commerciaux, marketing, logistique, animateurs de réseaux, managers de forces de ventes… Au sein de PME ou de grands comptes, dans de nombreux secteurs d’activité. De plus, l’éditeur assure des sessions de formation gratuites sur ce kit aux demandeurs d’emploi.

Législation
Réduire
A la recherche de preuves informatiques licites
Par Yann Serra - Copyright L'Informaticien, tous droits réservés

Fichiers de logs, e-mails, contenus de disques durs... En informatique, les indices foisonnent pour témoigner de tel ou tel acte. Mais ils ne seront recevables devant un tribunal que s'ils ont été récupérés dans un cadre très strict.

C’est un fait, la preuve électronique a une existence en droit français… Du moment qu’elle est licite. Ainsi, des enquêteurs assermentés ont parfaitement le droit de saisir « par surprise » du matériel informatique s’il y a suspicion d’activité illégale (drogue, escroquerie, etc.), voire criminelle. Et les preuves trouvées ainsi seront parfaitement recevables devant un juge. Mais il s’agit-là du domaine du seul droit pénal.

Selon la division Kroll Ontrack, entité de sécurité informatique du cabinet d’avocats Kroll, les litiges dans lesquels entrent en compte des documents numériques relèvent en revanche la plupart du temps du code civil. Ce sont typiquement des démêlées entre personnes physiques ou morales (un employé et son employeur – un particulier et une entreprise, etc. – sur la base de logs, d’e-mails ou autres fichiers dont l’existence suscite la possibilité d’une demande de réparation. Or, dans le cadre du code civil, une preuve n’est recevable que si l’on a au préalable clairement prévenu que l’on serait susceptible de la chercher par des moyens d’investigation, dont l’éventualité et la nature étaient connues de toutes les parties.


Avertir au préalable des moyens d’investigation

Du coup, une entreprise qui veut se donner les moyens de produire des preuves éventuelles sur la base de documents informatiques a tout à fait le droit de regarder les e-mails de ses employés, les sites qu’ils visitent, les types d’accès qu’ils effectuent ou encore tous les documents qu’ils stockent. Du moment qu’elle les informe qu’elle va le faire, c’est-à-dire au préalable. En l’occurrence, la charte d’utilisation des ordinateurs, pour être indiscutable, doit être publiée à l’attention de tout le monde sans aucune équivoque (affichage mural, etc.), voire déclarée à la CNIL.

On le devine, le problème que cela pose n’est pas tant technique (mouchards sur les serveurs locaux et la passerelle Internet, saisie du matériel qui appartient à l’entreprise, etc.) qu’humain. Car il s’agit de limiter le droit d’utilisation du système d’information – l’ensemble des équipements informatiques. Une pratique éprouvée, pour faire admettre aux utilisateurs qu’ils auront l’obligation de ne pas dépasser les limites imposées, consiste à toujours justifier la restriction des libertés et à consulter le CE, aussi bien sur les outils de sécurité à déployer que sur les règles d’intrusion de la DSI (direction du système d’information), seule responsable en matière d’intervention informatique.

Un détail critique : l’autorité de la DSI

À ce propos, un point capital est qu’une entreprise mésestime trop souvent le pouvoir qu’elle doit attribuer à sa DSI. Pour minimiser les dangereux passe-droits que certains services, ou chefs de services, seraient tentés de réclamer au titre d’une position hiérarchique plus élevée, il est primordial que la DSI dépende directement de la direction générale. Accessoirement, cela devrait motiver le recrutement de personnes particulièrement intègres à ce poste, ce qui figure un détail également non négligeable : selon un enquêteur de Kroll Ontrack, « dans la majorité des situations que nous rencontrons, nous avons affaire à des DSI sans pouvoir et dont les membres sont, dans 80 % des cas, eux-mêmes les auteurs des malversations » !



Un huissier et un expert externe pour éviter toute équivoque

Justement, un employé accusé de malveillance sur la base de documents informatiques aura souvent le réflexe d’avancer devant un tribunal que la DSI a trafiqué à ses dépens les données présentées comme preuves. Pour éviter cet écueil, la DSI saisira elle-même un matériel – obligatoirement propriété de l’entreprise – et confiera son analyse à un expert externe. Dans le cadre d’une investigation sur disque dur, la procédure veut que l’expert en question fasse une copie bloc à bloc du support devant huissier, qu’il mette l’original sous scellés et travaille uniquement sur la copie. En ce qui les concerne, les enquêteurs de Kroll OnTrack utilisent la commande « dd » sous Linux afin de réaliser une image la plus parfaite possible d’un disque dur.
Le travail de l’expert est de constater que les preuves manifestes – des fichiers volés, des e-mails aux propos coupables, des traces d’accès interdit, etc. – le sont indiscutablement. Pour ce faire, il va scrupuleusement observer la concordance des dates, des tailles, des structures dans le système de fichiers et dans les journaux de bord (« logs ») enregistrés en permanence par l’OS hôte. S’il rencontre une anomalie, alors cela signifie qu’il y a sans doute eu tentative de manipulation et la preuve n’est pas recevable. Pour l’anecdote, c’est ce genre de détails qui a suffi à prouver, dans l’affaire Clearstream, que les documents Excel avaient été trafiqués…


Preuve irréfutable ?


Posons tout de même un bémol : on ne peut actuellement pas empêcher une fausse preuve d’être recevable devant un juge si celle-ci a été élaborée par un faussaire plus malin que l’expert. Typiquement, il sera particulièrement difficile de détecter la modification d’un fichier effectuée par un autre OS que celui de l’utilisateur. On pense notamment à un pirate qui aurait eu la présence d’esprit de placer momentanément le disque en esclave dans une machine dont le système d’exploitation aura été configuré avec une date antérieure.

Commencer par lutter contre sa propre négligence
Chercher une preuve devient possible dès lors que l’on agit sur un champ d’investigation délimité… Ce qui est rarement le cas ! Par exemple, à quoi bon chercher qui a fomenté une attaque interne sur le SI, si l’on autorise l’utilisation des machines personnelles et des supports amovibles – disquettes, CD, clés USB –, vecteurs par excellence de virus et autres malwares ? Autre exemple classique : doit-on s’étonner de la fuite des mots de passe et des documents internes dès lors que l’on revend, ou que l’on offre, les anciens ordinateurs de l’entreprise sans en retirer les disques durs ? Selon Kroll Ontrack, même lorsqu’il s’agit de faire cadeau d’une machine à son utilisateur démissionnaire, il est impératif d’en remplacer le disque dur par un vierge et de conserver l’original. Une bonne pratique consiste même à ne pas toucher aux données de cet original – et à interdire à son ancien utilisateur de l’effacer – pour le cas où l’on souhaiterait ultérieurement y rechercher une preuve.



Quelle est l’autorité de la charte d’utilisation du SI ?
Si un employé peut prouver qu’il n’était pas au courant de droits restreints en ce qui concerne l’utilisation du système d’information, alors personne ne pourra l’accuser d’en avoir enfreint les limites. Et la situation est la même si l’intéressé est averti des restrictions à posteriori. Pis, un salarié peut se retourner contre son employeur pour espionnage de la vie privée si l’enregistrement de ses e-mails commence avant qu’il n’ait été prévenu de cette procédure. En revanche, un employé ne pourra pas avancer que rien, dans la charte publiée par la DSI, ne précisait formellement qu’il avait interdiction de pirater un serveur ou les comptes e-mail de ses collaborateurs. Sans même parler des moyens litigieux employés pour contourner une protection ; le simple fait d’accéder à une zone ou à des données dont on ne possède pas l’autorisation d’accès est une faute. À ce propos, la DSI n’a aucune obligation d’indiquer que les accès à un serveur seront enregistrés aux personnes qu’elle n’autorise pas à entrer sur ce serveur.


Serveurs
Réduire
Serveurs :
L’année des processeurs à quatre cœurs
Par Yann Serra - Copyright L'Informaticien, tous droits réservés

Intel Xeon 5300, AMD Opteron Deerhood, voire IBM Power6… Cette année, les serveurs vont être mis à jour avec une nouvelle vague de processeurs dont la caractéristique principale est d’offrir encore deux fois plus d’unités de traitement.

2007Serveurs00.jpg
En 2007, les serveurs vont tous se parer de processeurs à quatre cœurs, ce qui permettra, notamment, de doubler le nombre de ses machines virtuelles, sans pour autant devoir augmenter le nombre de ses machines physiques.
Souvenez-vous : mis au pied du mur d’un défi physique trop difficile à relever, les fabricants de microprocesseurs – Intel en tête – ont subitement cessé il y a deux ans leur course insensée aux gigaherz. Le Pentium 4 n’aura jamais atteint les 4 GHz si souvent promis. À la place, la montée en puissance se fait désormais par la multiplication des cœurs, ou comment exécuter plus d’instructions en un temps donné sans toucher à la fréquence de fonctionnement. Après les Pentium/Xeon et Athlon/Opteron à double cœur en 2005, 2007 sera le théâtre du débarquement de puces x86 à quatre cœurs.


La multiplication des cœurs ou comment suivre la loi de Moore par une pirouette

Avant d’aller plus loin, il convient de souligner combien cette histoire de multiplication des cœurs fait figure de pain béni pour les fondeurs : elle leur permet de respecter la loi économique de Moore avec un investissement en recherche et développement moins conséquent qu’auparavant. En clair, pour occuper toute la surface d’un carré de silicium (dont la taille invariable conditionne le prix invariable des processeurs), il faut ajouter de nouveaux circuits tous les deux ans, car c’est à ce rythme que les progrès de l’optique permettent de condenser un masque lumineux sur une surface deux fois plus petite. Avant, il aura fallu inventer des designs complémentaires de coprocesseurs vectoriels, de mémoire cache, etc. Désormais, il suffit de copier/coller sur la surface libre une image miroir du design existant à chaque fois que celui-ci voit sa taille réduire de moitié.

Accessoirement, augmenter les capacités de traitement sans pour autant augmenter la fréquence de fonctionnement ni la quantité de silicium a un autre effet bénéfique : la chaleur que dégage le processeur n’augmente plus à chaque génération. Cela signifie qu’il n’est enfin plus besoin de repenser la climatisation d’une salle informatique à chaque mise à jour du matériel et que les ordinateurs portables gagnent en performances sans perdre en autonomie.
L’approche d’AMD : multiplier les « threads » dans les programmes

Doubler ou quadrupler les unités de traitement n’accélère pas les calculs mais multiplie d’autant leur nombre en parallèle. En partant de ce constat, les fabricants ont développé deux approches. Celle adoptée par IBM sur ses Power et par AMD sur ses Athlon/Opteron consiste à favoriser l’exécution en parallèle de plusieurs exemplaires d’un même programme. Typiquement, sur deux ou quatre cœurs, un logiciel de rendu graphique va pouvoir traiter en même temps deux ou quatre segments d’une même image, divisant par conséquent le temps de travail d’autant. Ces performances sont très théoriques ; les premiers tests effectués sur la prochaine version de l’Opteron à quatre cœurs, par exemple, évoquent plutôt une durée des calculs réduite d’un tiers par rapport à l’actuel Opteron à double cœur. Ce système ne fonctionne que si le code d’une application est capable de se diviser en « threads » ou flux d’exécution. La procédure est commune sous Linux et autres systèmes Unix, bien qu’afin d’obtenir un résultat optimal, il reste préférable d’adapter dès le départ le programme pour le nombre de cœurs sur lequel il sera censé tourner. Ceci se fait simplement au moment de la compilation de l’exécutable. Les applications qui tirent partie de ce principe sont typiquement les serveurs d’applications, lesquels traitent de multiples requêtes en parallèle avec un code et des données communes, ou encore les applications scientifiques que l’on utilise aujourd’hui sur des clusters de plusieurs machines, lesquelles effectuent toujours la même famille d’opérations sur une très vaste quantité de données.


Un cache L3 pour les Athlon/Opteron à quatre cœurs

Du point de vue matériel, il est primordial que chaque cœur communique rapidement à ses congénères les résultats qu’il a déjà trouvés afin que ceux-ci ne soient pas calculés plusieurs fois. Ceci se fait soit par la présence d’un cache commun qui sert de bibliothèque ultra rapide, soit par l’entremise d’une connexion excessivement véloce entre les cœurs. Jusqu’ici, les processeurs d’AMD n’avaient que le deuxième dispositif, lequel est lié à un contrôleur mémoire qui présente l’exclusivité d’être intégré au sein du processeur, plutôt qu’externalisé dans un chipset northbridge sur la carte mère. Cependant, la nouvelle génération « Deerhound » à quatre cœurs des Athlon et Opteron, attendue pour le premier semestre de cette année, intégrera en sus un cache L3 de 2 Mo partagé entre tous les cœurs. Visuellement, il s’agira de l’amélioration la plus notable du design, chaque cœur conservant pour sa part le cache individuel de 512 ko, que l’on trouve dans l’actuelle version des Athlon et Opteron à double cœur. Ce dernier permet d’accéder rapidement aux données récurrentes dont a besoin le code en cours d’exécution. De la même manière, la fréquence de croisière continuera de stagner à 2,6 GHz et le fait de conserver le même socket 1207 « F » promet aux constructeurs de serveurs qu’ils n’auront qu’à échanger l’actuel Opteron par le nouveau pour que leurs machines doublent leur capacité de traitement. Il existe néanmoins une amélioration, subtile, qui s’incarne dans un dispositif de régulation du voltage pour chaque cœur. Celui-ci réduit dynamiquement et individuellement la fréquence d’une unité si celle-ci a moins besoin de travailler et, ce, dans le but d’économiser la consommation électrique – avec toujours la double conséquence de réduire la dissipation thermique sur les serveurs et d’augmenter l’autonomie sur les portables.


Vers des coprocesseurs « accélérateurs »
Le monde des supercalculateurs dispose déjà, grâce à IBM et Silicon Graphics, de coprocesseurs dits « spécialisés ». Il s’agit de puces (ASIC) dont le circuit a spécialement été optimisé pour n’exécuter qu’un type défini d’algorithmes (dans le monde de la recherche, il s’agit des fonctions mathématiques nécessaires aux simulations que l’on souhaite effectuer). Il en résulte que ceux-ci sont traités bien plus rapidement qu’au sein d’un processeur générique.
C’est AMD qui a eu en premier l’idée de décliner le concept sur les PC de monsieur tout le monde et les serveurs, en ouvrant les spécifications du bus de ses processeurs, appelé « architecture Direct Connect », pour que tout constructeur tiers puisse l’exploiter directement. Cela devrait prendre forme dès cette année avec l’arrivée de puces « accélératrices » qui s’insèreront directement sur la carte mère dans le socket libre (et supplémentaire) d’un Opteron ou d’un Athlon. Elles contiendront typiquement des algorithmes graphiques, les routines les plus fréquentes des serveurs d’application (on pense notamment à un processeur enfin capable d’exécuter directement du bytecode Java) ou encore des décodeurs de balises XML. Leurs performances seront assurées par l’utilisation des canaux de communication HyperTransport, dont les processeurs d’AMD se servent pour échanger directement entre eux des données à très haute vitesse (on trouvera quatre canaux HyperTransport 16 bits à 1 GHz sur le prochain Opteron quadri-cœur).
Chez Intel, on imagine plutôt l’ajout de coprocesseurs par l’intermédiaire d’un bus PCI encore plus rapide. Il s’agira alors d’un bus « Geneso » accompagné d’un chipset « CSI » et dont la disponibilité n’est pas prévue avant 2008.



Dell, premier à passer aux quatre cœurs
cadre03Dell.jpg
Dell embarque déjà le nouveau Xeon 5300 dans son actuelle famille de serveurs PowerEdge.
Quelques heures à peine après le lancement officiel du Xeon 5300 par Intel, le constructeur Dell mettait déjà à jour six de ses serveurs avec le nouveau processeur. Les machines équipées sont les PowerEdge à double socket (soit un total de huit cœurs, désormais) 1955 (lame), 1950, 2950 (racks), 1900, 2900 (tours) et SC1430 (tour pour cluster de calcul). Bonne nouvelle, les prix restent inchangés malgré la présence du nouveau processeur. Selon Dell, ces machines sont ouvertement destinées à la virtualisation de serveurs et il faudra attendre le milieu de l’année pour des configurations vouées à l’amélioration des performances d’ordinateurs mono-application (serveur d’applications…), cette fois-ci basés sur le très attendu Opteron quadri-cœur d’AMD. Autre événement notable de cette année, Dell tâchera d’imposer l’UMA, un standard de son cru en matière de maintenance à distance des serveurs. Celui-ci comprend à la fois une partie logicielle et des sondes matérielles pour détecter les défaillances.


L’approche d’Intel : miser sur les machines virtuelles

2007Serveurs02.jpg
En version MCM, le Power6 offrira cette année quatre fois deux cœurs, individuellement capables d’exécuter deux threads simultanément, soit un total de seize cœurs virtuels !
Du côté d’Intel, on joue plutôt la carte des machines virtuelles. Il s’agit de considérer chaque cœur de processeur comme le CPU d’une machine autonome, soit, en pratique, de faire tourner un système d’exploitation différent – avec ses propres applications et ses propres données – sur chacun des cœurs. Pour l’utilisateur, cela revient à disposer de plus de serveurs afin de pouvoir répondre à plus de requêtes extérieures, sans pour autant multiplier le nombre de machines physiques. Les principaux intéressés sont les hébergeurs qui peuvent ainsi accueillir plus de sites, ou cloner les sites qui engendrent plus de trafic, sans agrandir leur salle informatique. Accessoirement, en séparant la mémoire en plusieurs environnements applicatifs, on obtient la garantie que les problèmes de l’un n’auront pas de conséquence sur le bon fonctionnement des autres. Enfin, l’utilisation des machines virtuelles permet de ne pas avoir à recompiler les programmes et, surtout, leur assure un fonctionnement optimal même sous Windows. Il faut cependant préciser que, avec quatre cœurs, les tests d’évaluation démontrent que quatre copies autonomes d’un même serveur sur quatre machines virtuelles présentent des performances inférieures à quatre flux d’exécution parallèles d’un seul programme sous un seul OS. Autre contrainte, l’utilisateur devra acquérir autant de licences d’un logiciel propriétaire que le nombre de machines virtuelles sur lesquelles il compte les faire tourner, alors que, les partitions restant communes à toutes les machines virtuelles d’un même ordinateur, on ne disposera que d’un seul fichier exécutable sur le disque.
En termes d’implémentation matérielle, Intel a concrétisé la gestion des machines virtuelles à l’aide d’un nouveau niveau d’exécution dans le processeur, noté « ring -1 ». Dans le cadre du multitâche, les « rings » servent à hiérarchiser les applications en cours d’exécution, celle ayant le ring le plus faible pouvant interrompre toutes les autres pour passer la main à une autre tâche. Les systèmes d’exploitation sont typiquement les applications maîtresses de ring 0. Et c’est pour ne pas gêner leur bonne marche qu’Intel a aménagé un ring inférieur au niveau duquel tourne exclusivement le logiciel de supervision des machines virtuelles (VMWare, par exemple, pour ne parler que du plus connu).


IBM adopte le Xeon à quatre cœurs sur les System X,
en attendant le Power6 sur toutes les autres gammes

IBM, pourtant inventeur du processeur Power concurrent, a également été l’un des premiers constructeurs à doter ses serveurs System X (anciennement xSeries) du dernier Xeon 5300 d’Intel. En ce début d’année, l’offre d’IBM en matière de double Xeon quadri-cœur (soit huit cœurs) est assez modeste. Les cinq modèles proposés n’embarquent en effet que la version Xeon 5320 à 1,86 GHz du nouveau processeur, avec un bus cadencé à 1 066 MHz.
Les modèles équipés de Xeon 5340 et 5360 à plus de 2 GHz et un bus frontal de 1 333 MHz devraient arriver lors du premier trimestre. Les machines concernées sont les racks x3650 (2U) et x3550 (1U), les tours x3400 et x3500, ainsi que la lame BladeCenter HS21. Il convient de rappeler que ces modèles existent également en version Xeon 5100 ; ils ne proposent alors plus que quatre cœurs au total (deux fois deux), mais tournent tout de même à 3 GHz avec un FSB qui est déjà de 1 333 MHz ! Mais l’événement de cette année sera à n’en pas douter la standardisation du Power6 sur toutes les autres gammes, pSeries, iSeries et même zSeries.



Le Xeon 5300 à quatre cœurs déjà disponible

L’approche des machines virtuelles a permis à Intel de réaliser une pirouette de production : son Xeon 5300 à quatre cœurs vient tout juste d’être mis sur le marché, avec plusieurs mois d’avance sur le Deerhood d’AMD. Mais il y a une ruse : ce Xeon là n’est autre qu’une puce qui contient deux Xeon 5100 à double cœur, sans aucune autre forme de canal de communication entre les deux. Si les deux cœurs d’un Xeon 5100 peuvent travailler de concert par l’entremise de leur cache L2 commun de 4 Mo, les deux Xeon 5100 ne peuvent en revanche s’échanger des informations qu’en allant les stocker dans la Ram principale – voire en passant par un éventuel cache L3 sur la carte mère, ce qui n’améliore que peu la situation. En conséquence, le Xeon 5300 ne favorise aucunement l’exécution d’un programme par threads (il n’est même pas dit que, pour des raisons d’équilibre de charge, le système d’exploitation parvienne à confier les deux threads d’un même programme aux deux cœurs du même Xeon 5100), mais cette architecture ne gêne aucunement le fonctionnement parallèle de machines virtuelles, complètement autonomes. Pour disposer d’un Xeon avec quatre cœurs partageant le même cache de 8 Mo, soit un Core 3 Quad et non plus un Core 2 Quad (également appelé « Core 2 Extreme »), il faudra attendre, au mieux, la fin de 2007, soit bien après la sortie des AMD Deerhood, lorsque les processeurs d’Intel seront gravés avec des transistors de 45 nm – contre 65 nm aujourd’hui. AMD ne devrait pour sa part pas atteindre la gravure en 45 nm avant la mi-2008, mais ce sera alors pour proposer des processeurs à huit cœurs.


HP : Les Intel à quatre cœurs également dans les stations de travail
Chez HP, les serveurs existants, qui bénéficient de l’arrivée du Xeon 5300, sont les ML370 G5 (tour), DL140 G3, DL360 G5, DL380 G5 (racks) ainsi que les BL460c et BL480c (blades). Comme pour la concurrence, ce n’est que dans le courant 2007 que ces machines se verront équipées des modèles de Xeon 5300 à plus de 2 GHz et avec un FSB de 1 333 MHz. Plus remarquable, HP se sert également des Intel à quatre cœurs pour mettre à jour ses stations de travail xw8400, xw6400 et xw4400. Cette dernière, mono-processeur, se voit équipée de la version dite « grand public » du Xeon 5300, à savoir le Core 2 Extreme à 2,66 GHz et bus 1 333 MHz (dit « QX6700 » ; il s’agit de la même puce que le Xeon 5360, mais celle-ci est commercialisée pour les machines à processeur unique).



Accessoirement, la mise au point d’un Xeon 5300 sur la base de deux Xeon 5100 a posé un sacré problème à Intel : ainsi construit, le nouveau Xeon chauffe fatalement beaucoup plus que son prédécesseur ! Un paramètre qui devient critique dans le cadre de serveurs que l’on destine à être entasser en racks ou en lames dans un châssis. Pour contourner ce tracas, le fondeur n’a rien trouvé de mieux que de baisser les fréquences ; en haut de gamme, on passe ainsi d’un Xeon 5100 avec deux cœurs (3 GHz) qui consommait 80 watts, à un Xeon 5300 à quatre cœurs (2,66 GHz) qui consomme tout de même 120 watts. À l’autre bout de la chaîne, le Xeon 5300 d’entrée de gamme ne consomme certes que 80 watts, mais il se trouve relégué à la fréquence oubliée depuis des lustres de 1,6 GHz ! – avec, de surcroît, un bus à 1 066 MHz au lieu de 1 333 MHz.


Virtualisation et maintenance : vPro va se décliner en Centrino Pro
cadre02vPro.jpg
Le standard vPro, qui permet à un administrateur de réveiller et de contrôler à distance un PC pour en assurer la maintenance, se déclinera cette année sur les ordinateurs portables, sous la marque Centrino Pro.
Avec des processeurs à cœurs multiples, spécialisés dans le déploiement de machines virtuelles, Intel entend bien mettre de la virtualisation dans toutes les gammes de machines, pas seulement les serveurs. Voici en tout cas le credo de son nouveau standard « vPro », lequel entend renouveler sur les ordinateurs de bureau le succès de la marque Centrino sur les portables. Il s’agit ici de faire sommeiller dans tout poste de travail une machine virtuelle de maintenance dont l’administrateur peut prendre le contrôle à distance pour désinfecter ou réparer un Windows bureautique. Pourvue d’un chipset Q965 Express, une machine éteinte a la capacité d’être rallumée via le réseau et donne accès à la console de son firmware EFI (sorte de BIOS de facture Intel qui intègre un Shell complet), lequel permet à l’administrateur de naviguer sur tout le disque dur et d’y manipuler tous les fichiers. Idéalement, il peut lancer un Windows « de maintenance » qui se charge de surveiller en temps réel les actions du Windows utilisé comme environnement bureautique sur le poste de travail. Prévue pour la fin 2006, la plate-forme vPro se déclinera courant 2007 en Centrino Pro pour administrer aussi les portables à base de chipset 965PM/GM Express. Il n’existe pour l’heure pas d’équivalent sur les machines dotées de processeurs AMD, lesquelles souffrent dans ce cas principalement de l’absence d’un firmware comparable à EFI.



SGI concentre seize cœurs dans 1U
Débarquant au début de cette année de ce côté-ci de l’Atlantique, l’Altix XE310 de SGI est une brique rack 1U qui intègre quatre processeurs à quatre cœurs Xeon 5300, soit un record de seize cœurs dans un boîtier aussi petit ! Cela dit, SGI ne semble pas être parvenu à gérer tout ce matériel avec un seul OS : deux copies de Linux s’occupent chacune d’un maximum de huit cœurs, ce qui revient à dire qu’il y a deux vraies machines par boîtier XE310. Destiné à l’élaboration d’un cluster Altix XE1300 pour les calculs scientifiques, les machines Altix XE310 ne fonctionnent qu’en la présence d’une brique serveur supplémentaire, l’Altix XE240, laquelle contient et délivre l’image de l’OS et celle des applications à tous les nœuds.



On double sans doute le nombre de machines virtuelles, mais celles-ci deviennent subitement plus lentes sur la dernière génération du processeur ! Il est vrai que les Core 2 Duo (dont fait partie le 5100) sont réputés pour leur extrême rapidité, mais tout de même… À dissipation thermique égale, un serveur doté du Xeon 5300 devrait pouvoir répondre à 40 % de requêtes en plus par rapport à un Xeon 5100. On est loin des 100 % attendus. Pour faire passer la pilule, Intel a lancé le Xeon 5300 au prix du Xeon 5100, soit entre 500 et 1 180 dollars l’unité, selon le modèle.


Le Power6 continuera, seul, la course aux GigaHerz

Également prévu pour une sortie vers le milieu de cette année, le Power6 d’IBM, dernier rejeton de la famille PowerPC, sera le dernier des processeurs à courir encore après le record des fréquences. Gravé en 65 nm, il devrait ainsi se trouver cadencé à 4 voire 5 GHz. Destiné à équiper les serveurs pSeries et iSeries, ainsi que les mainframes zSeries (une première, ces dernières machines n’ont jusqu’ici fonctionner qu’avec des composants très spécialisés), ce processeur se composera de deux cœurs, chacun capable d’exécuter deux threads à la fois – soit un total de quatre, comme sur les processeurs à quatre cœurs d’Intel et AMD. Chaque cœur s’accompagnera d’un cache L2 de 4 Mo (soit 8 Mo en tout) « semi-partageable », ce qui signifie qu’un cœur pourra, sous certaines conditions, accéder au cache L2 de l’autre. De toute manière, la puce intégrera en sus un cache L3 de 32 Mo avec un accès en lecture/écriture de 80 Go/s.

Point remarquable, le Power6 intégrera une unité DFPU qui lui permettra d’effectuer des opérations mathématiques directement en décimal (toute l’électronique travaille jusqu’ici en binaire, ce qui complique l’écriture d’algorithmes financiers performants, notamment en ce qui concerne les arrondis) ! Le Power6 bénéficiera en outre d’un dispositif d’inter-communication entre processeurs. Similaire à l’HyperTransport d’AMD, celui-ci permettra de connecter entre eux jusqu’à 64 cœurs et d’y répartir au total pas moins de 1 024 machines virtuelles ! Comme cela a été le cas pour les Power4 et Power5, une version MCM embarquera quatre siliciums de Power6 dans une seule grosse puce (dotée donc de huit cœurs physiques, soit seize cœurs virtuels).


Blades : Fujitsu-Siemens sur les traces de Sun
Fujitsu-Siemens est le seul constructeur qui profite de l’arrivée des processeurs à quatre cœurs pour mettre sur le marché une toute nouvelle gamme de machines : les Primergy BladeFrame. En l’occurrence, il s’agit de serveurs en lames (« blades », en anglais) qui reprennent le concept architectural du SunBlade 8000, lancé en fanfare l’été dernier par Sun. Ici, les blades ne contiennent plus que des processeurs et de la mémoire, toute la logique réseau et disques (contrôleurs) loge à l’arrière du châssis BF200 (lequel accueille six lames, avec quatre châssis au maximum par étagère 42U, ou un seul châssis BF400 de vingt-quatre lames pour 42U). Chez Sun, cette disposition permet de garantir la pérennité de la configuration, puisqu’il ne sera pas nécessaire de remplacer les lames le jour où l’on fera évoluer le réseau. Chez Fujitsu, on met plutôt en avant des possibilités de virtualisation applicative (à ne pas confondre avec la segmentation d’une machine physique en machines virtuelles) : on dispose d’un pool d’applications serveur qu’un superviseur très intelligent (constitué de quatre lames supplémentaires également mises au point par Fujitsu-Siemens) répartit sur les blades, selon des critères de disponibilité, de charge, de maintenance, etc. Premier point fort : toutes les applications continueront de tourner même si un maximum de lames tombent en panne (comptez trois minutes le temps que le superviseur reconfigure la ferme de blades et en redémarre certaines). Second point fort : le superviseur est capable d’attribuer tous les cœurs (seize au maximum) d’une lame soit à une application, soit à autant de machines virtuelles autonomes. Chaque lame peut contenir de deux à quatre processeurs à double ou quadruple cœurs et jusqu’à 32 Go de Ram. Le catalogue propose aussi bien des configurations Intel Xeon qu’AMD Opteron ; le client préfèrera l’une ou l’autre architecture selon la fluctuation des prix et des performances qu’elles offrent. Il est à noter que ces machines ne disposent d’aucun disque dur, ce qui impose d’accoler à la ferme de serveurs (que Fujitsu-Siemens appelle un PAN, pour Processing Area Network) une baie de stockage SAN (Storage Area Network).


p.1
Réduire
Formation initiale
Les entreprises de plus en plus influentes
Par Carole Pitras - copyright L'Informaticien, tous droits réservés

Pour faire face à l’évolution des besoins et à la pénurie des compétences qui est annoncée, les collaborations entre écoles et universités d’un côté, et entreprises des nouvelles technologies de l’autre se font plus fréquentes. Quelques tendances et pistes à privilégier.

Trois initiatives récentes illustrent la pénurie de compétences et les pistes à explorer pour y remédier. Premièrement, un accord IBM-Supinfo-la Banque Postale pour former des étudiants de Supinfo en dernière année aux technologies mainframe. Deuxièmement, la création d’un master consultant ERP par Sopra et SAP à l’ESPI. Troisièmement, l’éditeur décisionnel SAS qui signe un accord de partenariat avec la Reims Management School (RMS) dans le cadre de l’International Retailing Center (IRC) à Reims, une structure de recherche dédiée à la grande distribution, qui prévoit des formations assurées par des consultants SAS et de mettre à la disposition des étudiants ses solutions décisionnelles.
On pourrait multiplier les exemples dans les domaines de l’ERP et du décisionnel notamment, mais ceux-ci illustrent les principales tendances de l’évolution des métiers de l’informatique : avoir une double ou une triple compétence, technique bien sûr, voire multi-technologie, fonctionnelle ensuite pour adresser les métiers de la finance, de la logistique, et les fonctions transversales de l’entreprise, sectorielle enfin pour connaître les grandes problématiques d’un secteur d’activité comme la grande distribution, les télécoms, voire la fonction publique.


Le mainframe n’est pas mort !
P.kesler38972_Copier5.gifPatrick Kesler
Patrick Kesler, qui dirige la division Systèmes Z (c’est-à-dire mainframe) chez IBM, explique que ses clients souhaitent maintenir et pérenniser leurs mainframe, qu’ils détiennent pour certains depuis près de 40 ans, notamment dans le secteur bancaire. Malheureusement, les informaticiens en interne qui travaillaient sur ces plates-formes ont souvent aussi plusieurs dizaines d’années de maison et partent à la retraite. Pour pallier une pénurie de compétence annoncée avec le papy boom, IBM a donc lancé l’an dernier une initiative au niveau mondial visant à former 20 000 étudiants aux technologies mainframe d’ici à 2010, en collaboration avec les écoles et universités. En France, cette initiative a été déclinée avec trois écoles pour le moment : l’Epita, l’ESIAL à Nancy et dernièrement Supinfo. À l’Epita, IBM a d’abord subventionné une spécialisation mainframe d’environ 80 heures, dispensée à une centaine d’étudiants par des formateurs IBM traditionnels, qui assurent habituellement les formations aux clients. L’objectif étant de montrer qu’aujourd’hui « les nouvelles technologies de type Linux ou Java étaient le quotidien du mainframe et qu’il s’agit d’une plate-forme très moderne ». À l’Esial, une spécialisation mainframe a été ouverte pour 25 étudiants qui, durant plusieurs semaines, ont reçu des cours sur le sujet. Plus complet est le dernier accord passé avec Supinfo puisqu’une entreprise utilisatrice y est associée, la Banque Postale. « Nous avons monté un projet où IBM ne va pas seulement délivrer un cours, mais également montrer le côté application dans une grande entreprise, via l’intervention de professionnels du SI de la Banque Postale, du DSI aux développeurs en passant par les architectes ou la direction de la production. » Vingt-cinq étudiants de Supinfo ont été sélectionnés pour participer à cette formation mainframe d’une centaine d’heures, qui a débuté en octobre. Les étudiants pourront se voir proposer des stages, voire un emploi dans l’entreprise ! Des initiatives similaires, associant IBM et entreprises utilisatrices ou SSII devraient voir le jour dans d’autres écoles, IBM ciblant avant tout celles dans lesquelles ses clients recrutent. L’objectif de Patrick Kesler est de parvenir à un rythme de croisière de 400 à 500 étudiants formés par an, contre 150 à 200 actuellement.




Ce qui est à rapprocher de l’essor de nouvelles sociétés de services, qui ne se positionnent plus comme généralistes mais spécialisées sur une technologie ou un métier. Trois exemples : Infotel, qui, avec sa signature « @web to database », revendique une approche nouvelle technologie et mainframe qui correspond à la réalité du système d’information des clients. Michel Koutchouk, son directeur général, souligne avoir du mal à trouver de jeunes ingénieurs connaissant les mainframe.
Keyrus, Business et Décision ou Micropole Univers, se sont imposées, elles, comme les spécialistes des projets décisionnels et embauchent plusieurs centaines de personnes chaque année dans ces domaines.
Enfin, Cadextan, une SSII spécialisée sur les métiers de la finance, dont le directeur général, Didier Neyrat, souligne depuis plusieurs années la nécessité d’une double compétence de ses collaborateurs et futurs collaborateurs pour mener à bien les projets de ses client.
Ces récents accords entre éditeurs, constructeurs, société de services et établissements d’enseignement supérieur visent donc à créer de nouvelles compétences répondant à ces différents besoins.

Pénurie annoncée

Depuis dix-huit mois environ, la profession des logiciels et services alerte sur la pénurie qui s’annonce chez les informaticiens. Syntec Informatique évoque régulièrement le manque de consultants ERP, d’architectes, de développeurs en nouvelles technologies, Java notamment. Et s’inquiète de la guerre des talents qui commence entre ses adhérents.
Les chiffres annoncés sont conséquents : 207 000 postes d’informaticiens seraient à pourvoir d’ici à 2015, dans les entreprises du secteur des logiciels et services et chez les entreprises utilisatrices, dont 149 000 créations de poste et 58 000 remplacements de départ en retraite. Des chiffres qui semblent impressionnants mais à rap-procher des 350 000 créations de postes de ces douze dernières années. L’inquiétude naît surtout du manque d’attractivité du secteur auprès des jeunes.


De nouveaux métiers

Cette pénurie annoncée se double de l’émergence de nouveaux métiers : ainsi, les obligations réglementaires ont elles donné naissance aux métiers de Chief Data Officer, ou encore de correspondant Cnil, ou de risk manager. Les évolutions technologiques, comme la convergence, supposent des profils maîtrisant les réseaux autant que l’informatique plus classique. L’industrialisation croissante, l’externalisation et l’internationalisation des projets ont également des conséquences sur les compétences recherchées : les métiers du test sont recherchés. La maîtrise des processus et des méthodes devient indispensable.


Ramener les jeunes vers l’informatique

formation-ecole-des-mi38887.gif

jussien-2003[3]39233_Copie6.gifNarenda Jussien
L’inquiétude de nombre de professionnels porte sur le manque d’attractivité des métiers de l’informatique auprès des jeunes : Syntec Informatique a créé avec une trentaine d’écoles d’ingénieurs, Pasc@line, une association qui vise à promouvoir les métiers de l’informatique et à adapter la formation – principalement la formation initiale – à l’évolution des métiers. Ce qui s’est traduit par la création d’une commission « Évolution des besoins ». À l’École des mines de Nantes, Narendra Jussien souligne que l’enseignement informatique a été entièrement revu dans le tronc commun. « Il avait dérivé en informatique pour informaticiens », reconnaît-il : l’informatique était donc vue comme une discipline d’« autistes » et les options informatiques délaissées. Désormais, les élèves réalisent dès la première année un projet individuel et sont confrontés à de vrais problèmes, par lesquels ils abordent différents aspects, comme la programmation objet, les structures de données, les bases de données, l’interface homme-machine. Objectif : qu’ils soient capables après les deux années de tronc commun de met-tre en œuvre une application qui manipule des données. Narendra Jussien souligne qu’après un an, les résultats de cette nouvelle approche sont déjà perceptibles : « Beaucoup ont pris goût à ça », et s’intéressent désormais aux options informatiques, ce qui devrait porter ses fruits sur la fréquentation de ces options dès l’année prochaine. Il faut toujours cinq ans pour former un ingénieur… Il a également doublé cette approche pratique d’un aspect ludique en expliquant la programmation par contrainte par le Sudoku, soulignant que les principes sont les mêmes : réduction de données, raisonnement local, propagation. Ludique, également, l’initiative de Microsoft Imagine Cup. « Les cours d’informatique ne donnent pas envie de faire du développement », constate Laurent Ellerbach, chez Microsoft, et souligne qu’il est encore possible de décrocher un troisième cycle en informatique sans jamais toucher à un PC dans le cadre de ses cours… Imagine Cup a donc vocation à « donner envie à des jeunes d’aller dans les métiers technologique ». Au sein d’Imagine Cup, Project Hoshimi permet d’aborder le développement sans en faire directement, Microsoft ayant créé un outil permettant de réaliser une application sans faire de développement, et ainsi d’amener les étudiants à appréhender l’algorithmique sans avoir besoin, dans un premier temps tout du moins, de développer.




Parallèlement, les entreprises cherchent à pérenniser, optimiser et rationaliser leurs investissements informatiques, dans un contexte où nombre de leurs informaticiens et de leurs collaborateurs seront concernés par le papy boom. D’où l’intervention d’IBM pour former de nouvelles recrues aux mainframe (voir encadré). L’an dernier, le Club informatique des grandes entreprises françaises (Cigref) a ainsi complété son référentiel métier d’un référentiel de compétences. Initiative qui vise à tenir compte de l’évolution des politiques RH des grands groupes qui mettent en place au sein des DSI des « plans ambitieux de gestion des compétences » prenant en compte « l’évolution des budgets informatiques, des technologies, de la gestion des prestataires, le papy boom ou la mobilité en entreprise ».


Le boom des technologies Microsoft

De son côté, Microsoft a mené ses propres enquêtes sur .Net, qui montrent une pénurie de compétences chez ses partenaires sur l’ensemble des technologies Microsoft, du développement à l’intégration d’ERP ou de CRM en passant par les projets de messagerie ou de travail collaboratif (cf. tableau). Pierre François, chez Vascoo, qui gère le site msemploi, indique que si un peu plus de 30 % des 220 000 informaticiens travaillant sur les infrastructures et le développement en France intervient au moins en partie sur les technologies Microsoft, cette part passe à 60 % pour les nouvelles embauches. Il chiffre à 18 000 le nombre de postes à pourvoir aujourd’hui sur les technologies Microsoft, dont 9 500 en Île-de-France. Pour seulement 3 000 candidats disposant des compétences nécessaires et disponibles. L’éditeur multiplie donc les initiatives pour former de nouvelles ressources, par le biais de la formation initiale ou de la formation continue (voir encadré).


ERP, CRM, décisionnel…

La reprise des projets ERP et le lancement en parallèle de grands projets publics autour d’ERP (ministère des Finances, projets RH de l’Armée, de la Gendarmerie, la mairie de Paris pour ne parler que des récents contrats SAP) mobilisent les ressources existantes et accentuent la pénurie de consultants. Dernièrement, Oracle, SAP et Microsoft se sont mobilisés sur le sujet. Oracle a recruté en mars dernier avec ses grands intégrateurs (Capgemini, BearingPoint, Kurt Salmon Associates et Steria) une cinquantaine de professionnels de la finance, des RH ou du contrôle de gestion, qui ont été ensuite formés durant six semaines aux applications Oracle. Une opération qui devrait être reconduite, l’objectif étant de former ainsi 350 consultants sur les deux prochaines années. Sopra vient de créer avec SAP un master consultant ERP à l’ESPI (voir encadré). Enfin, Microsoft s’est allié à l’École Supérieure de Gestion sur son offre Microsoft Dynamics CRM.


Master pro, apprentissage, VAE, CQP…

Essor des projets décisionnels aidant, les formations sur ce sujet sont nombreuses. Par exemple, un Master SIAD (Système d’Information et Aide à la Décision) à l’Université Toulouse I, un Mastère Spécialisé Management de Projet Décisionnel de Grenoble École de Management, ou encore un Mastère Spécialisé en Informatique Décisionnelle créé à l’EISTI en 2003. Les éditeurs de logiciels décisionnels sont très friands de partenariats avec ces formations, toujours le principe selon lequel un outil pratiqué lors de la formation aura plus de chance d’être utilisé, voire choisi au cours de la vie professionnelle. Ainsi, Hyperion vient de signer un accord avec l’université Toulouse I pour fournir ses outils de business intelligence et d’analyse multidimensionnelle aux professeurs et aux étudiants du Master SIAD pour accompagner la formation, les travaux pratiques et les projets réalisées dans le cadre de ce cursus.
Les voies de la formation à l’informatique sont multiples, pour ne pas dire complexes. Écoles d’ingénieurs traditionnelles, accessibles sur concours après deux ans de prépa, écoles avec admission après le bac ou après un IUT, jungle des masters et des options… Récemment rénové, le site pass informatique (www.passinformatique.com) recense dans sa rubrique annuaire 5 500 formations, qui peuvent être recherchées par diplôme, par spécialisation ou par type de contrat (alternance ou apprentissage).


Un master consultant ERP SAP créé par Sopra
« Il est difficile de trouver des gens qui connaissent bien les ERP, en particulier SAP », constate Noël Bouffart, directeur délégué de Sopra group. Devant le manque de ressources SAP, Sopra a donc décidé de créer un master en collaboration avec l’éditeur et l’EPSI (École privée des sciences informatiques). L’objectif étant de former des consultants « capables d’intégrer l’ensemble des compétences SAP et d’être une interface entre les informaticiens et les utilisateurs », particulièrement sur les métiers de la finance et de la logistique. Même si elle cible en priorité de nouveaux collaborateurs, la SSII indique ne pas s’interdire de former également certains de ses collaborateurs. Les étudiants de ce master sont recrutés conjointement par l’école et par Sopra, principalement parmi les jeunes diplômés ingénieurs, Noël Bouffart soulignant que ces derniers sont très peu formés aux ERP. Parmi les qualités requises, un bon relationnel, indispensable dans ce rôle d’interface. La formation est assurée en alternance, et comprend un tronc commun (marché des ERP, le rôle des SSII, les techniques de présentation orales et écrites, la méthodologie de planification et de conduite de projets ERP,) une formation aux solutions SAP (vision d’ensemble puis spécialisation sur SAP Finance ou SAP Logistique, avec travaux pratiques) assurée par l’éditeur et enfin la participation à des projets SAP réels durant les stages chez Sopra. Ils devront choisir de s’orienter vers un des domaines de la finance ou de la logistique. La première promotion, pour laquelle les cours débuteront en février, comptera trente élèves, la deuxième qui démarre en juillet prochain pourrait en compter le double. Sous réserve de réussir leur examen et leur certification SAP, tous les diplômés seront recrutés par Sopra. Cette nouvelle formation est en cours de validation.




Des options de dernière année ou des masters permettent des spécialisations. Et s’adaptent à l’évolution des métiers et des technologies. Ainsi, Narendra Jussien, professeur à L’École des mines de Nantes, école généraliste disposant de deux options informatiques, génie des systèmes d’information (GSI) et génie informatique pour l’aide à la décision (Gipad), explique-t-il que les options sont réactualisées pour s’adapter à l’évolution technologique et à l’évolution de la demande. L’option GSI a ainsi été revue pour intégrer plus de technologies liées au middleware et répondre aux problématiques d’urbanisation des systèmes d’information, d’orchestration, d’émergence des web services, d’agrégation de composants. Quant à l’option Gipad (Genie informatique pour l’aide à la décision), elle est actuellement en train d’évoluer afin de faire plus de place aux outils d’optimisation par rapport aux outils de visualisation. Ce qui correspond à l’évolution du décisionnel devenu business intelligence et désormais pilotage de la performance, intégrant en cela une dimension prospective en plus de l’analyse a posteriori de données.

MSemploi.jpg


« Les masters professionnels sont très appréciés par les entreprises du secteur des logiciels et services », note Marie-Anne Boyer Maillard, déléguée formation de Syntec Informatique, qui indique que les Miage sont également des formations intéressantes, par exemple dans le cadre des ERP, car ils donnent une double compétence informatique-gestion. Ces formations sont encore plus appréciées par la voie de l’apprentissage ou de l’alternance, cependant encore peu répandue dans les écoles d’ingénieurs, mais que des écoles, comme l’ITIN à Cergy, ont privilégié avec succès sur la partie informatique et réseau, avec notamment un master Ingénierie des Réseaux et Systèmes.
« L’alternance est également de plus en plus utilisée par les SSII », observe Marie-Anne Boyer Maillard. Raison de cet engouement : des formations initiales encore très théoriques, au terme desquelles les jeunes diplômés ne sont pas aussi opérationnels que le souhaiteraient leurs nouveaux employeurs. Illustration : le programme de formation Université.net de Microsoft, plutôt destiné initialement à des développeurs souhaitant se former sur .Net durant quatre semaines a en fait formé beaucoup de jeunes diplômés.


Microsoft multiplie les initiatives
laurent-Ellerbach38801_Cop8.gifLaurent Ellerbach
« La pénurie de compétences sur les technologies Microsoft s’accroît (cf. tableau). Depuis cinq ans, l’éditeur développe ses relations avec l’enseignement supérieur, université et écoles »
, explique Laurent Ellerbach, responsable des relations développeurs et enseignement supérieur de Microsoft France. La première étape a consisté à donner à tous les étudiants et enseignants l’accès à l’ensemble des logiciels Microsoft, via MSDN Academic Alliance (www.msdnaa.net/france), adopté, moyennant 500 euros annuels, par 600 écoles et universités françaises, dont la moitié donnent à leurs étudiants accès à ces produits. Sur l’année universitaire 2006/2007, 150 000 logiciels devraient être téléchargés via cette offre, soit 50 % de plus que l’année précédente. Les enseignants et étudiants peuvent déployer et utiliser l’ensemble des produits (serveurs, systèmes d’exploitation, outils de développement, Project) chez eux et sur site. Les ingénieurs diplômés cette année sont donc les premiers à avoir bénéficié de cet accès gratuit aux technologies Microsoft tout au long de leurs études… et connaissant ces technologies sont donc plus à même d’y travailler. CQFD. Microsoft a même créé un programme MS Student Partner, équivalent pour les étudiants de son programme de reconnaissance MVP (Most Valuable Professional). Ces étudiants se voient récompensés de diverses manières, par exemple une participation tous frais payés à TechEd, et peuvent être embauchés par l’éditeur ou ses partenaires à l’issue de leurs études. Deuxième initiative : séduire les enseignants, en leur proposant gratuitement des bases de cours faites par d’autres enseignants, en leur donnant accès au code source de Windows XP (prochainement de Vista) afin de leur permettre de le découvrir. Enfin, Imagine Cup, concours qui cible les associations d’étudiants. Et qui plaît beaucoup en France : 8 500 participants français sur les 65 000 au niveau mondial. Parallèlement, des partenariats plus privilégiés ont été signés avec certaines écoles. Par exemple, l’INSA Lyon pour créer une cellule de support, assurée par les étudiants, à l’attention des administrateurs systèmes et réseaux de l’enseignement public.




Dans le cadre de la formation continue, plusieurs pistes sont à explorer : la validation des acquis de l’expérience (VAE), déjà accessible pour certain diplômes et devrait l’être dès la fin 2008 pour l’ensemble des formations diplômantes. En pointe sur ce sujet, les écoles d’ingénieurs de la région Midi-Pyrénées (www.criva.org). D’autres se heurtent à la résistance de leurs associations d’anciens élèves et ont quelque réticence à délivrer leur titre par cette voie jugée moins noble…
Également, récemment créée par la branche le Certificat de Qualification professionnelle (CQP) Administrateur de réseau d’entreprise, une formation de 900 heures entrant dans le cadre des contrats de professionnalisation. D’autres CQP devraient voir le jour prochainement, administrateur de bases de données, architecte technique et développeur nouvelles technologies.

Marie-Anne Boyer Maillard souligne que les entreprises s’intéressent de plus en plus à ces dispositifs. D’abord parce qu’ils deviennent un élément de motivation des salariés, voire de fidélisation en cette période où les chasseurs de tête se font pressants… Ensuite, l’obtention d’un diplôme permet de mieux « vendre » un collaborateur à un client. Enfin, la VAE permet l’obtention d’un diplôme sans pour autant mobiliser un collaborateur à mi temps sur deux ans… La démarche consiste surtout à tracer les expériences professionnelles correspondant au référentiel emploi pour le CQP ou à la formation diplômante. Ce qui revient au final moins cher qu’une formation… « La démarche de formation se fait encore à un niveau individuel mais pourrait devenir collective », souligne Marie-Anne Boyer Maillard.
p.2
Réduire
CERTIFICATIONS
Une réelle valeur ajoutée sur un CV ?


Les programmes partenaires des éditeurs et constructeurs font la part belle à la certification. Est-ce une garantie de compétence pour un client ? Est-ce indispensable à l’autonomie des intégrateurs ? Et un moyen pour les éditeurs et constructeurs de s’assurer de l’implication de leurs revendeurs et donc de leur motivation à vendre leur produit ? Voire un argument supplémentaire sur un CV. En fait, c’est un peu de tout cela…

Désormais, être partenaire Gold, Premium ou Platinium n’est plus seulement subordonné à la réalisation d’un chiffre d’affaires minimal, mais requiert également d’avoir formé un certain nombre d’ingénieurs, qui doivent pour cela suivre des formations. Or, avoir une certification au plus haut niveau (platinium ou équivalent) suppose de disposer d’un certain nombre d’ingénieurs certifiés. Certification qui permet toutefois généralement de profiter des remises supplémentaires sur l’achat des produits, permettant de rentabiliser l’investissement initial. Cercle vertueux ou cercle vicieux ?


Un avantage client ?

De l’avis général, oui !, la certification est un élément important commercialement. « Au niveau commercial, c’est un atout : les clients regardent la société, son bilan financier et le fait que les personnes qui vont intervenir soient certifiées les rassure », souligne Christophe Canonne, directeur général de Cyber Networks, l’un des principaux intégrateurs dans le domaine de la sécurité, qui précise que c’est même un pré-requis dans certains secteurs d’activités, comme le secteur bancaire. « Le client a envie d’avoir quelqu’un qui ne vienne pas s’entraîner chez lui », ajoute-t-il.


« Être formé, oui, mais être certifié n’est pas indispensable »
Bruno-Leclerc2040157_Copie9.gifPour Bruno Leclerc, le directeur général d’Integralis, devoir payer les cours et plus encore le matériel de démonstration dans le cadre d’une certification est « scandaleux ». Pour cet intégrateur spécialisé dans la sécurité de 400 personnes, implanté dans une demi douzaine de pays et qui référence 34 éditeurs et constructeurs, les principaux étant Checkpoint et Nokia, le budget certification devient vite conséquent, à raison d’un ou deux ingénieurs certifiés par technologie au catalogue et de trois jours de formation en moyenne, à un prix journalier compris entre 600 et 1 200 euros…



Selon lui, « Un partenariat se doit d’être équilibré », l’intégrateur acceptant de se former, « mais l’éditeur ne doit pas forcément faire des bénéfices », sur cette formation. « Sur une formation de cinq jours, nous avons déjà près de 5 000 euros de manque à gagner de facturation. Si on y ajoute 3 500 euros de formation Checkpoint, l’investissement est énorme. » Idem pour RSA, Trend Micro ou Juniper, indique-t-il.
Bruno Leclerc s’indigne de devoir payer du matériel de démonstration et de devoir autant payer pour former des ingénieurs qui vendent finalement leurs produits. Mais il reconnaît ne pas avoir le choix. Il souligne cependant que certains éditeurs prennent le contre-pied de cette politique et mentionne notamment avoir « explosé avec Sophos depuis deux ans », suite à la stratégie de l’éditeur de former gratuitement les équipes de ses intégrateurs. Ce qui, selon lui, prouve qu’il est possible de développer un partenariat qualitatif gratuitement.


Un élément de gestion des ressources humaines
Pour les SSII, c’est à la fois une façon d’occuper des collaborateurs en inter-contrats, de remplir leurs obligations en termes de droit individuel à la formation, et de « récompenser » des collaborateurs. Les SSII de plusieurs centaines voire milliers de personnes ne se contentent en effet pas de certifier les deux ou quatre collaborateurs qui permettent d’avoir une certification Gold ou Platinium de tel ou tel éditeur. D’autant que la certification étant attachée à un collaborateur et non à une entreprise, mieux vaut avoir quelques certifiés supplémentaires en cas de départs… Quant aux collaborateurs, ils sont conscients qu’une certification est un plus sur un CV et sont demandeurs. Tout le monde y gagne donc… « Cela plaît aux ingénieurs », admet Bruno Leclerc, qui indique que le sujet est désormais abordé en entretien d’embauche. « Avant, ils demandaient des tickets restaurant, maintenant ils se renseignent sur notre stratégie de certification ! » « Les ingénieurs ont envie d’évoluer », confirme Christophe Canonne. Les formations certifiantes permettraient donc de répondre aux problématiques de gestion de carrière : pour un jeune développeur, les trois options pour évoluer sont de se diriger vers l’encadrement (chef de projet), vers le commercial ou vers l’expertise technique. Selon Lionel Grivel, chez Keyrus, 20 à 30 % choisissent l’expertise technique, « surtout en début de carrière ». Les certifications valident donc un savoir-faire et permettent de monter en compétence, de valoriser un acquis et de renégocier le salaire avec d’autres cartes en mains…



Sébastien Ricard et Lionel Grivel, qui dirigent l’activité Business Intelligence chez Keyrus estiment que dans le domaine du décisionnel, « les certifications éditeurs sont les bienvenues », dans la mesure où elles permettent de « structurer nos métiers et de tirer vers le haut l’ensemble de notre profession ». À condition que le cursus soit suffisamment difficile pour être reconnu, précisent-ils, comme par exemple pour Business Objects XI, Oracle ou SAS v.9. Ces certifications donnent également une visibilité, notamment sur Microsoft, où les 230 certifiés Gold voient un moyen de se différencier des quelque 700 qui ne sont « que » certifiés. « C’est un élément différenciant, gage de la qualité du partenariat avec l’éditeur, du savoir-faire et d’une expertise », souligne Lionel Grivel.
« Cela concrétise une expérience », confirme Frédéric Melon, directeur technique chez Nord Réseaux Concept, VAR régional, certifié Microsoft Gold, Sage et Arkoon. « Avoir une compétence sur un produit sanctionné par une certification est valorisant pour ceux qui la détiennent. Elle témoigne d’un savoir-faire et par rapport au client d’une compétence avérée dans notre métier où il y a beaucoup d’amateurs », juge pour sa part Philippe Gaitte, chez RSI, revendeur intégrateur de 15 personnes, certifié Microsoft Gold, HP prefered partner, etc. « Cette qualification n’est pas contestable, c’est un vrai plus qui apporte une crédibilité et pour celui qui la détient une aisance qui apporte beaucoup ».
Bémol de Bruno Leclerc, DG d’Integralis, également intégrateur dans le domaine de la sécurité qui estime que « le ROI vis-à-vis de nos clients est quasi invisible. Peu de clients nous choisissent parce que nous sommes certifiés ». Il indique que cela peut être un pré-requis dans les appels d’offres du secteur public mais que « par rapport au business de tous les jours, il n’y a pas d’affaires que nous ayons gagné parce que nous étions certifiés ».


Une double peine ?

CCanonne40153_Copier10.gifChristophe Canonne, directeur général de Cyber Networks.
Si les intégrateurs et SSII reconnaissent l’apport de la formation et de la certification technique, ils en contestent parfois le prix, soulignant que le coût est double pour eux : le prix de la formation elle-même et le manque à gagner des jours non facturés de leur collaborateur en formation. Sans compter les éventuels frais de déplacement lorsqu’il faut envoyer un collaborateur un peu loin… « La certification en ligne permettrait de gagner du temps », indique ainsi un intégrateur. Mais les certifications en ligne sont essentiellement les certifications commerciales et non les certifications techniques. Car les deux sont nécessaires pour que l’entreprise devienne partenaire Silver, Gold, Premium, ou autres appellations destinées à témoigner de la réalité d’un partenariat entre éditeur et intégrateur.
Plus encore, les sociétés contestent l’aspect marketing de ces programmes et parfois l’utilité des certifications commerciales, qui se contentent dans la plupart des cas de rappeler des fondamentaux de la vente, ce qui pourrait se faire sans éditeur… « C’est un échange de bons procédés, estime Sébastien Ricard, cela permet aux équipes commerciales de se connaître et d’être sûr que son intégrateur est un bon vendeur. »
Il y a quelques mois, un groupement d’éditeurs dénonçait la dérive des certifications (voir encadré) et la mauvaise adaptation des programmes partenaires aux différents profils : les opérations de génération de prospects semblant plus pertinente pour un revendeur et/ou intégrateur que pour un éditeur. Les grands éditeurs ou constructeurs ont parfois des programmes adaptés aux différentes typologies de partenaires, mais ce n’est pas la situation la plus fréquente. Ainsi, Philippe Gaitte, de RSI, souligne qu’en tant qu’intégrateur de 15 personnes qui équipe principalement des PME régionales, il suit la même formation qu’une SSII de plusieurs centaines ou milliers de personnes qui assure des déploiements à l’échelle internationale pour une clientèle de grands comptes à l’environnement technique plus complexe… qui plus est, la compétence (certification en langage Microsoft) Information Worker de Microsoft, qui témoigne des compétences d’un partenaire sur la partie poste de travail, ne comprend ainsi rien sur les compétences Office, souligne Philippe Gaitte, celle qui intéresse pourtant plus une PME que la partie travail collaboratif.
Il y a toutefois certification et certification, technique et commerciale, et même dans la catégorie technique le niveau varie très fortement… L’immense majorité des certifications se fait sous forme de QCM. « Pour certaines, il suffit de faire lire la documentation à un junior », ironise un intégrateur.
D’autres sont plus complexes, même sur des points qui ne sont pas particulièrement technique. Ainsi, Frédéric Melon, directeur technique chez NRC (Nord Réseaux Concept) indique que la compétence licensing de Microsoft est particulièrement ardue à obtenir : s’y retrouver dans la jungle des licences proposées est un boulot en soi, qui donne lieu à certification, pour laquelle aucune documentation n’est disponible.


Un mal nécessaire ?

Être certifié n’est finalement pas obligatoire… mais fortement recommandé à partir d’un certain volume d’affaires sur un produit, pour ne plus dépendre des interventions d’un distributeur, indique Tony Cilibrasi chez Computerlinks.
« Il y a un déficit de perception de la valeur de la certification », juge Laurent Pénisson, en charge des partenaires centres de formation de Microsoft France. Selon lui, la certification valide les efforts faits par un partenaire, ou du moins son collaborateur certifié, en termes de recherche documentaire, son autonomie et sa capacité à réagir face à un problème technique. « Cela prouve l’investissement réalisé sur une technologie », confirme Keyrus. Christophe Canonne chez Cyber Networks dit comprendre la demande de certification des éditeurs et constructeurs : « Ils n’ont pas envie que nous abaissions la qualité de leur produit parce que nous ne saurions pas l’intégrer ou que nous l’aurions mal intégré. Leur réputation est en jeu, il est donc logique qu’ils cherchent à ce que nous soyons certifiés. C’est une manière de vérifier l’implication du partenaire. »


Qui assure les formations ?

Lionel-Grivel40322_Copier11.gifSebastien-Ricard40320_Cop12.gifLes éditeurs assurent eux-mêmes cette formation, ou leurs distributeurs, souvent centres de formation agréés. Ils peuvent être encore spécialistes de la formation, eux-mêmes formés auprès de l’éditeur ou du constructeur et qui bâtissent ensuite leur propre offre de formation. Avec parfois encore des intermédiaires : formation dans le pays d’origine, puis au niveau régional et local, avec ou sans traduction.
Cette non disponibilité de certaines formation en français peut s’avérer problématique par rapport au client final souligne Christophe Canonne, directeur général de Cyber Networks : dans l’administration ou certaines grandes entreprises, il est impératif que les formations soient assurées en français.
Chez les intégrateurs, la question de la langue est moins aiguë dans le mesure où « la majorité des ingénieurs ont entre 25 et 35 ans, et ont été amenés à apprendre l’anglais », précise Christophe Canonne. « Les fournisseurs comptent sur les centres de formation des distributeurs pour avoir des formateurs en français », confirme Tony Cilibrasi, responsable de l’offre formation et certification chez Computerlinks. « Les principaux grossistes ont une valeur ajoutée sur les aspects logistique et formation », reconnaît un intégrateur
Cette chaîne de formation explique des délais importants entre la sortie d’un produit et les premiers certifiés : plus de 10 mois par exemple pour Business Objects XI. Entre temps « business as usual », les projets de migration ont été menés à bien, certifiés ou non…
Plus gênant, cette chaîne de formation peut parfois provoquer des déperditions de contenu. « Nous avons souvent été déçus par des formations : il y a une déperdition entre les équipes de développement et les formateurs, qui forment les formateurs américains qui forment eux-mêmes les formateurs européens », indique ainsi Fayçal Kabani, directeur des opération de 2SB, S2B, grossiste spécialisé en sécurité, qui compte une vingtaine de marques à son catalogue, certaines comme premier distributeur (Bluecoat, Intellitactics), d’autres en tant que sous-distributeur (Juniper, Checkpoint, ISS). Il privilégie donc les formations aux États-Unis, « au plus près de la source », c’est-à-dire des équipes de développement, afin de limiter cette déperdition… Et de disposer des contacts nécessaires pour éviter de passer par le circuit du support officiel.
Un intégrateur confirme que certains formateurs qui viennent souvent du support en savent moins que les ingénieurs qu’il envoie lui-même en formation sur un produit, car ils ont déjà rencontré beaucoup de problèmes et ont donc été amenés à
« fouiller » le produit.

Trop chères ?

Reste que d’aucuns s’indignent du prix des formations. Et de leurs variations. Les formations certifiantes durent de trois à cinq jours – souvent trois jours – et coûtent de 1 500 à 3 000 euros, indiquent un intégrateur. Avec des pointes bien plus élevées, notamment dans le domaine de la sécurité. « Sur tous les produits où il y a du hardware, cela finit par être cher », indique Tony Cilibrasi, chez Computerlinks.


La révolte d’une association d’éditeurs
Dans une tribune libre envoyée à la presse, il y a quelques mois, Mantel, association d’éditeurs de solutions de gestion financière des télécoms, dénonçait les certifications comme étant « le business le plus rentable (après l’exercice des brevets) ». « Sous prétexte de validation technique, nos sociétés se voient contraintes par des équipementiers mondiaux, puis des éditeurs de logiciels de taille mondiale, de payer leur écot pour participer à de prétendus programmes marketing qui ne les concernent nullement. Ces programmes (créations de marques ou “branding”, génération prospects ou “leads”, animation d’événements, “road-show”) peuvent concerner des intégrateurs télécoms clients, mais certainement pas des acteurs purement fournisseurs de technologie, dont le rôle est d’ajouter le savoir-faire permettant bien souvent de conclure les affaires. Ces “certifications” se transforment en une sorte d’impôt, levé de façon régulière (par exemple, chaque année pour Alcatel, Nortel, etc.) ou imprévisible – par exemple, pour chaque nouvelle version chez Cisco Systems. Cette nouvelle taxe devra être réglée pour chaque nouvelle version de leurs produits… et, quelques fois, de nos propres logiciels ! »





Trop cher ? Les distributeurs réfutent l’accusation, arguant de l’investissement qu’ils réalisent eux-mêmes pour devenir formateurs. Tony Cilibrasi souligne ainsi que « l’investissement nous concernant est important et il n’est pas le même selon les éditeurs ou constructeurs, loin de là ». Il les chiffre de 2 000 à 60 000 euros, pour la formation des formateurs, mais également pour l’investissement en salle et en matériel. Ce qui a bien sûr des répercussions sur le prix de vente.
Tout se négocie : les VAR, intégrateurs et SSII indiquent tous que le prix officiel des formations est rarement pratiqué, sauf pour le client final qui se forme à la technologie qu’il vient d’acheter… Computerlinks indique ainsi pratiquer deux fois par an des remises allant jusqu’à 50 % du prix affiché. « Tout est une question de négociation, on ne les paye pas toujours avec tous les éditeurs… », confirme Christophe Canonne.

« Je fais jouer la concurrence entre les centres de formation de Bordeaux, Nantes et Paris afin d’obtenir des remises de 20 à 30 % », indique pour sa part Philippe Gaitte. « C’est un business pour les éditeurs, je n’ai jamais réussi à avoir une formation gratuite », déplore une SSII, pourtant de taille conséquente.
Mobilité
Réduire
Mobilité
Un intérêt croissant
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

blackberry.jpg
Le Blackberry reste le numéro un des équipements communicants.
La dernière étude de la SSII Devoteam confirme l’intérêt grandissant des entreprises pour les solutions mobiles. L’étude constate un rapprochement entre les usages grand public et professionnels et confirme le bouleversement des usages liés à l’adoption des solutions mobiles. À terme, les applications fixes devraient se voir remplacées par des applications mobiles. L’étude démontre aussi la montée en puissance du haut débit sans fil.

Le dernier baromètre de Devoteam Consulting fait tout d’abord apparaître une première priorité pour les entreprises. Elles souhaitent pouvoir accéder à leurs applications professionnelles en tout lieu et en toutes circonstances. Ce message a été bien reçu par les opérateurs qui offrent de plus en plus de possibilités pour réaliser ce souhait. SFR, Orange ou autres opérateurs alternatifs ciblent ce marché avec plus ou moins de bonheur.
Parallèlement, l’étude laisse entrevoir une volonté de simplicité sur les mises en œuvre par le souhait d’une unification des communications au travers d’un seul prestataire, d’une seule offre commerciale et d’un seul forfait. À l’instar des offres grand public se fait jour le désir de se voir offrir des forfaits illimités.
Le principal catalyseur des souhaits de mobilité reste la large diffusion des technologies sans fil dont la pénétration s’est largement étendue en un an.


La convergence fixe-mobile prend date

Pas moins de 46 % des entreprises envisagent la substitution de leur équipement en téléphonie fixe au profit de solutions de téléphonie mobile. En revanche, 5 % l’envisagent de manière totale. Ainsi, 53 % des entreprises consultées lors de cette étude montrent un intérêt pour les solutions de VoIP mobile, principalement pour un usage interne sur le LAN (Local Area Network). Déjà 17 % des entreprises sont aujourd’hui équipées d’une offre regroupant téléphonie fixe, mobile et Internet. Pour les entreprises, les opérateurs semblent les fournisseurs les plus légitimes pour ces offres de convergence.


Le boom des modes d’accès sans fil

L’explosion des équipements mobiles s’est accompagnée de la montée en puissance des modes d’accès distants sans fil. Environ 40 % des professionnels utilisent les réseaux GSM et GPRS. Le Wi-Fi constitue cependant le mode de connexion le plus répandu, poussé par le nombre élevé de hotspots en France et le taux d’équipements en portable comportant des puces Intel Centrino. 3G et EDGE émergent et commencent à susciter l’intérêt des entreprises.


Des bénéfices bien ciblés

Les bénéfices attendus des solutions mobiles sont bien analysés ; 70 % des entreprises interrogées attendent des gains de productivité ; cet aspect surpasse de loin les autres avantages attendus, comme la réactivité des employés ou l’amélioration du confort de travail ou la réduction des coûts.
Dans ce cadre, près de 70 % des entreprises déclarent maintenir le niveau d’investissement dans les projets de mobilité. Un tiers prévoit même une augmentation au cours de l’année prochaine, notamment sur les postes « communications et abonnements », changements de terminaux et développements d’applications.

tablo1.jpgtablo2.jpg
Sécurité
Réduire
Sécurité
Le jeu du maillon faible
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Pour 2007, les vilains du net ne relâchent pas la pression. Sur certains points, comme le spam, elle s’est même intensifiée depuis le printemps. Les attaques d’aujourd’hui et de demain n’auront pas la même forme que celles d’hier. Une évidence ? Non ! À l’image des outils de sécurité informatique, les attaques développent une ingénierie de plus en plus sophistiquée. Elles demandent désormais des efforts constants, mais aussi une révision de l’organisation de la sécurité dans les entreprises avec, au centre, l’utilisateur. Le dernier rempart pour la sécurité de l’entreprise. C’est de son comportement que dépendra le plus souvent la protection de l’entreprise.

fauxmessMicrosofft.jpg
Faux message proposant une mise à jour Microsoft.
Les fins d’année sont souvent l’occasion de sortir les boules de cristal pour essayez de prévoir ce qui va se passer dans les douze mois à venir. Cette méthode n’est pas plus mauvaise qu’une autre dans bien des secteurs. L’un des secteurs où elle est quasiment sûre de fonctionner, c’est la sécurité informatique. Les éditeurs du secteur ou les analystes ne manquent donc pas de fournir des avis des plus avertis sur le sujet. L’ensemble des intervenants du secteur ne prévoit pas de changements radicaux, mais une augmentation des risques lors de l’année prochaine. Un seuil symbolique vient d’ailleurs d’être dépassé lors de l’année écoulée. Pour la première fois, les bases de signatures de virus malveillants ont dépassé les 200 000 enregistrements. Chez McAfee, on compte désormais près de 217 000 codes malveillants répertoriés.


Les évolutions de nuisances connues

Devenu l’ennemi numéro un, le spam évolue pour passer les différentes barrières mises en place par les entreprises. La principale évolution notable est le recours à des images pour éviter le filtrage.

Les techniques actuelles de dépistage des spams s’appuient sur des listes ou sur des filtres avec des mots clés. Les spams contournent ces deux contraintes en insérant l’image du message à délivrer dans un texte tout à fait innocent, comme des extraits d’ouvrages connus ou des poèmes. Ne voyant pas de mots douteux, le filtre laisse passer le mail comme un message normal. Le phénomène du spam s’est amplifié depuis le printemps dernier. « Depuis le mois de mai dernier », précise Fabrice Prugnaud, chez SurfControl. Les spams représentent aujourd’hui quasiment près de 90 % du trafic mail reçu dans les boîtes de courriers électroniques. Le recours à l’image, même de basse résolution, pose la question de l’engorgement des réseaux vers les entreprises par ce phénomène. Il est comparable à une lente strangulation. Fabrice Prugnaud ajoute : « Pendant que les systèmes de sécurité s’occupent des spams, ils ne s’occupent pas d’autres choses. Il me semble que cette attaque forte de spams est le signe avant-coureur d’une attaque plus large mais qui reste à déterminer. » D’autres observateurs ne partagent pas cet avis. Les personnes interrogées pensent que le spam se suffit à lui-même, du fait qu’il génère assez d’argent. Une étude édifiante réalisée par l’éditeur d’antivirus finlandais F-Secure, constate que près d’un particulier sur deux serait près à acheter des produits à partir d’un e-mail non sollicité, donc un spam.

Corollaire à ce phénomène, on assiste à une augmentation du nombre des sites miroir ou phishing. Selon le McAfee Avert Labs, les sites d’achat en ligne côtoient désormais les banques. Plus inquiétant, le centre de recherche de l’éditeur prévoit l’apparition de « faux sites honorables » voulant profiter de la générosité des gens après une catastrophe ou de faux sites financiers.


Un botnet de 450 000 PC zombies

FabricePrugnaud.jpg
Fabrice Prugnaud, de SurfControl.
À côté de ces menaces connues en évolution, on retrouve toujours les « botnets », ces robots émetteurs de spams à partir de PC zombies. Le record vient d’être battu l’année dernière avec un bot de 450 000 PC. Ils servent aussi désormais d’outils pour collecter des données personnelles. Le phénomène a pris assez d’ampleur pour que les initiateurs des botnets recrutent des personnes localement pour traiter les marchandises achetées frauduleusement ou récupérer l’argent détourné sur des comptes locaux. Avantage principal, à l’instar des passeurs de drogues, l’« employé » de l’initiateur du botnet prend les risques et le cerveau, l’argent ! Ce recrutement se fait par mail, mais aussi par des sites d’apparence très professionnelle ou via la messagerie instantanée.

Les rootkits, si craints à la fin de l’année dernière, semblent en diminution. Pour la plupart des analystes, ce n’est qu’une accalmie avant que des solutions soient trouvées pour contourner les nouvelles mesures de sécurité prévues dans Vista.

Dernier cybercrime en forte augmentation, le vol d’identité. Selon la Commission au commerce américaine, près de 10 millions de citoyens américains sont victimes chaque année du phénomène. Il a principalement lieu à la suite du vol d’un ordinateur portable, d’une perte de sauvegarde ou d’une attaque en bonne et due forme. Plus récemment, ces attaques visent des postes clients en gagnant en sophistication par des techniques d’engineering social ou par des chevaux de Troie permettant l’enregistrement de frappe clavier, le vol de mots de passe ou installant des backdoors ou des bots.
Virus ou attaques Zero-day vont aussi continuer de ponctuer l’année 2007. Mais est-ce vraiment une surprise ? Plus embêtant, l’année écoulée a vu les premières attaques structurées sur des équipements mobiles. Ainsi, MSIL/Xrove.A, un programme écrit pour .Net, a permis via le logiciel de synchronisation ActivSync l’infection de smartphones à partir d’un PC. L’année a vu aussi une attaque de phishing par SMS. Un virus script était utilisé comme émetteur. À partir de PC infectés, ce script envoyait des SMS mails proposant de se connecter à un site malveillant. À la fin de l’automne, le virus comptait déjà quatre variantes différentes. La tranquillité du monde mobile semble être révolue. L’année 2007 pourrait fort bien être le moment d’une telle révélation.


Le cybercrime a désormais ses places de marché


Devant une telle activité, il est difficile que seuls des éléments isolés en soient responsables. À l’instar des gouvernements, le crime informatique se structure avec ses places de marché, son recrutement.

Une organisation complexe semble s’être mise en place avec des rôles bien dévolus. Ainsi, on constate de plus en plus des phénomènes d’attaques concertées sur des variantes d’un virus très proches pour tromper les listes de signatures. D’autres s’occuperaient du test ou de la diffusion. Pour entrer dans cette grande famille du cybercrime, des épreuves existent en ligne, comme des sortes de concours, avec des primes. À l’instar des jeux de rôles, vous gagnez des galons en commençant par un petit « bot » de 1 000 PC, puis par un exploit plus important, pour arriver jusqu’à de véritables attaques. Selon McAfee, le recrutement se réalise de plus en plus tôt, voire chez des adolescents attirés par de l’argent facile et une sanction peu dissuasive comparativement à d’autres types de criminalité.

Fabrice Prugnaud parle même de « place de marché noir » des informations, où se traitent les informations volées lors d’attaques, et se négociant parfois de grosses sommes. Sur ces sites confidentiels, des hackers monnayent des données volées ou récupérées lors d’attaques ou par spamming. Les prix dépendent de la qualité et de l’importance des données offertes.


De nouveaux terrains de chasse


Toujours à l’affût de nouveaux terrains pour leur activité, les cybercriminels visent aujourd’hui les utilisateurs. Il est vrai que pour la plupart des pirates, les solutions mises en place par les entreprises sont assez dissuasives et demandent du temps et des investissements peu en rapport avec ce que peuvent retirer les pirates de leurs activités. Ils se tournent donc vers des cibles plus faciles : les utilisateurs. Ainsi, le centre de recherche de McAfee constate une recrudescence des attaques vers les sites de communautés ou de réseaux sociaux. Les utilisateurs de ces sites se sentent plus en confiance et y lâchent souvent plus facilement des informations confidentielles.

Autres cibles, les sites de blogs vidéos comme MySpace. Selon McAfee, les internautes auraient moins d’hésitations à ouvrir une vidéo qu’un mail ou une pièce jointe. Encore peu conscients du danger, les utilisateurs n’auraient guère de scrupules à regarder les vidéos envoyées d’où quelles proviennent.


De nouvelles contraintes réglementaires


Ainsi, un ver – Realor – découvert début novembre, modifie les fichiers Real Media et insère une adresse URL automatiquement à l’ouverture du fichier pouvant autoriser l’installation d’un logiciel espion ou un robot. Les utilisateurs doivent donc être prévenus que désormais, surfer ou proposer ses services sur des réseaux sociaux, participer à des activités de communautés Internet est tout aussi dangereux que de laisser traîner ses mots de passe sur un forum. Ces attaques contre les utilisateurs proviennent aussi du manque de compétence et de formation des utilisateurs à la sécurité informatique. Le plus souvent, les mesures prises sont considérées comme des contraintes supplémentaires, car mal expliquées, voire pas expliquées du tout. Cet état de fait change hélas peu d’année en année.

Le constat du manque de formation pourrait cependant évoluer. Si la législation américaine a introduit la loi Sarbannes-Oaxley qui demande une traçabilité complète des données dans l’entreprise, ainsi que la rétention de différents documents y compris les échanges par courrier électronique, les pays européens dont la France ne sont pas en reste. Avec la LSF (Loi de Sécurité Financière), notre pays se propose de met-tre en place un système équivalent. Les projets menés aux États-Unis dans le domaine ont été souvent douloureux en termes d’organisation.

Cette remise à niveau réglementaire devrait faire aussi partie des grands sujets de l’année pour les services en charge de la sécurité informatique. Sans compter qu’ils devront justement prendre en compte une tendance lourde de rapprochement entre vies personnelle et professionnelle des salariés. Ce problème a d’ailleurs été tranché par la cour de cassation dans le désormais célèbre arrêt Nikon, qui permet au salarié d’utiliser les ressources de l’entreprise à certaines fins personnelles.


Un bilan rassurant ?


L’année 2006 n’a pas connu que des développements négatifs dans le domaine de la sécurité informatique. En premier lieu, les différentes législations de par le monde se sont renforcées pour lutter contre cette nouvelle criminalité. Les premières condamnations sont ainsi tombées sur des spammeurs ou des escrocs du net.

L’année a aussi confirmé, comme le fait remarquer un consultant de Deloitte que nous avons contacté, que la sécurité informatique fonctionne bien lorsqu’elle est automatisée et reste prise en charge au niveau de l’infrastructure. Lui aussi remarque qu’il reste cependant encore à obtenir l’adhésion des salariés dans ces programmes de sécurisation.
Ce nouveau contexte devrait pousser à l’adoption de technologies réputées très sûres, comme les environnements virtualisés ou client léger.

schema.jpg

Le schéma du système de fonctionnement d’un spam proposant de fausses pilules de Viagra.
Livres
Réduire
La référence sur SQL Server 2005

9782100501373.gifConnue sous le nom de code « Yukon », la version 2005 de SQL Server présentait pour principale nouveauté d’introduire la CLR (Common Language Runtime) et une véritable plate-forme de programmation s’appuyant sur des messages orientés services, ainsi qu’une plate-forme de Business Intelligence. Devant la richesse de l’outil, il était difficile de trouver une documentation ou un ouvrage exhaustif sur l’ensemble. C’est la gageure réussie par Andrew Brust et Stephen Forte, dans un ouvrage en deux tomes : SQL Server 2005, manuel de référence traitant des techniques et du développement et de la plate-forme de Business Intelligence.
Pour les débutants, l’ouvrage permet de se familiariser avec l’outil de Microsoft pour les bases de données. Pour les plus expérimentés, les deux volumes permettent de découvrir en détail les fonctions les plus avancées de la plate-forme. Éditée dans la collection « Les outils du développeur », cette somme devrait rapidement devenir un classique du genre.

• SQL Server 2005 : tome 1
Manuel de référence, technologie et développement
• SQL Server 2005 : tome 2
Manuel de référence, Business Intelligence

• Auteurs : Andrew J. Brust et Stephen Forte

• Éditeur : Microsoft Press, 557 pages et 388 pages



TCP/IP par la pratique

tcpip.gifIci, on privilégie la pratique. Ce manuel proposé par deux spécialistes des environnements Microsoft s’articule autour d’un cas pratique d’entreprise. Bon, le présupposé est que la société suit les évolutions des environnements Microsoft. De 2000, elle passe à 2003 et ne s’interroge pas sur d’autres alternatives, qui ne sont même pas discutées. Sinon, on entre directement dans le vif du sujet et tous les aspects de la mise en œuvre d’un réseau d’entreprise sont abordés. La méthode pédagogique est très progressive, avec des question-réponse et des check lists d’opérations à effectuer. Des aspects comme la virtualisation ne sont pas oubliés avec un pas-à-pas de l’installation de Virtual Server 2005 présent en annexe. L’ouvrage s’adresse à des utilisateurs avertis ou devant s’entraîner pour obtenir une certification. Il y a donc assez peu de digressions ou de littérature. Tout est dans l’efficacité !
Dans la même collection, l’éditeur propose aussi un ouvrage sur Active Directory, et ce, jusqu’à la version présente sous Windows Server 2003 R2 par les mêmes auteurs.
Les deux titres s’adressent à ceux qui veulent vraiment s’investir dans ces technologies. On aurait apprécié tout de même un côté un peu plus ludique.

TCP/IP et les services réseaux

• Auteurs : Sylvain Caicoya et Jean-Georges Saury

• Éditeur :
Micro Application, Collection Atelier Technique

• 408 pages


Avant - première !

La conférence Ruby on Rails Paris a été l’occasion de découvrir les bonnes feuilles de la deuxième édition de l’ouvrage sur ce framework de développement agile d’applications Web. L’ouvrage s’appuiera sur la version 1.2 du framework. Disponible en anglais depuis la fin de 2006, il est « localisé » en français pour le premier trimestre aux Éditions Eyrolles. Il devrait apporter un peu de grain à moudre dans le débat actuel autour de la pérennité et de la maturité de ce framework alors que certains, plus aventureux, développent déjà des applications critiques sur ce support.

• Ruby on Rails 2e édition

• Auteurs : Dave Thomas et David Hennemeier Hansson, adapté par Laurent Julliard avec la contribution de Richard Piacentini

• Disponibilité : courant du premier trimestre 2007
Logiciel
Réduire
LOGICIEL
Vers la fin des applications ?
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

JeanPaoli.jpg
Pour Jean Paoli, le Monsieur XML de Microsoft, « Il faudrait revoir la manière de penser les applications bureautiques ».
Là où l’impact des architectures SOA est le plus visible, c’est certainement sur l’évolution des applications. Autrefois monolithiques et demandant des intégrations « en dur » par des interfaces ou des connecteurs, les applications se veulent aujourd’hui « décomposées » en différents éléments. À partir de cette vision sous forme de composants, dite de « componentisation », les applications se rénovent pour se combiner et offrir des possibilités qui peuvent emprunter à plusieurs applications à la fois, issues d’éditeurs différents. Ce « Lego » promis sonnera-t-il le glas des formes d’applications que nous connaissons aujourd’hui ?

Lorsque Rob Levy, directeur technique de BEA, explique que, selon lui, « dans quelques temps, les applications sous la forme où nous les connaissons auront disparues », on peut s’étonner et penser que le sens de la petite phrase de ce trublion de la technologie n’est qu’une vision un peu osée de l’avenir.

Quand quelques heures plus tard, Jean Paoli, le Monsieur XML de Microsoft, renchérit en lançant qu’il faudrait « que les gens revoient aujourd’hui leur manière de penser les applications bureautiques autour des processus. Demain, il faudra raisonner à partir de processus et de tâches à effectuer et non plus sous forme d’application », on se trouve en droit de s’interroger sur le devenir de ce qu’on appelle aujourd’hui des applications.

Cette vision à long terme n’est évidemment pas pour le futur immédiat, mais l’interrogation montre déjà des orientations pour les mois à venir.


La décomposition des applications


Jean-Michel Franco, en charge du business développement pour l’Europe chez SAP, le constate lui-même : « Avec les apports du SOA que nous proposons avec notre outil Netweaver, nous assistons à une sorte de désintégration des applications. » Dans l’ensemble, les applications monolithiques d’hier ont été réécrites sous forme de composants. Tout d’abord mis en œuvre par les plus grands éditeurs du marché, les autres éditeurs plus petits suivent aujourd’hui parfois au prix de grands sacrifices pour s’adapter à cette nouvelle donne technologique.

Désormais, ces composants se combinent pour s’enchaîner à l’intérieur de processus d’entreprises soutenus par des outils de workflow. Depuis longtemps présents dans les logiciels ERP ou de gestion des documents, ces outils de workflow connaissent leur consécration avec leur présence dans la nouvelle suite Office proposée par Microsoft. Ce workflow est l’outil qui permet d’ordonnancer les différentes phases du processus de l’entreprise.
L’exemple suivant vous éclairera plus. Pour réaliser une note de frais, le salarié devait ouvrir Word, puis Excel, scanner ces factures. Puis il envoyait ses documents pour les faire valider et obtenir un visa qui déclenchait le remboursement sur la base de ces documents. Aujourd’hui, ce processus est totalement agencé dans les produits. Ainsi, l’exemple de Duet qui permet de combiner les différentes actions nécessaires dans l’environnement de Microsoft tout en récupérant les données pertinentes dans SAP.

Ce type de combinaisons va certainement se développer dans les différents produits du marché. Une approche similaire revient dans certains modèles à proposer ces combinaisons sur une même plate-forme et sous forme de services.


Le soft produit de grande consommation

Connu au départ pour ne proposer que des éléments d’automatisation des forces de vente, Salesforce.com propose désormais une large plate-forme, Appexchange, sur laquelle viennent se plugger des produits partenaires pour proposer des services étendus aux produits de Salesforce.com. Cette dernière évolution ouvre le débat entre les éditeurs proposant toutes les briques d’une solution, de l’infrastructure aux modules fonctionnels, et l’approche où différents produits d’éditeurs différents se combinent pour offrir des solutions complètes en s’appuyant sur une plate-forme technologique fédératrice.
Dans l’esprit SOA, la seconde approche devrait l’emporter sur le long terme. Cependant, les éditeurs comme Microsoft ou SAP que l’on peut classer dans la première approche, se lance aussi dans cette démarche de plate-forme partagée en proposant des services que peuvent utiliser d’autres applications.

Pour SAP, cela tient de la réinvention avec, à terme, un ERP qui sera redécoupé en plusieurs centaines de services que les utilisateurs pourraient presque combiner à l’infini selon leurs besoins métier.


Des services qui remplissent réellement les besoins clients

La diffusion du software sous forme de service à pour conséquence pour les utilisateurs de pouvoir trouver, à peu près sous toutes les formes possibles, un logiciel qui corresponde à la fois à leur besoin ponctuel ou récurrent, sous la forme d’un service dont la rémunération se réalise à l’usage.

Certains usages comme la possibilité d’un agenda partagé, d’utiliser un traitement de texte, voire partager des documents, sont même gratuits et en ligne. Il n’y a donc à la limite plus besoin de posséder une machine en propre. Il est possible de se trouver dans un cybercafé, de s’abonner à ce type de service et de pouvoir remplir toutes ces tâches pour un investissement minimum. Le nombre de logiciels sous cette forme devrait rapidement s’accroître pour offrir une véritable alternative sur chaque famille de logiciels. Vous aurez alors toujours la possibilité d’acheter et d’utiliser en interne ces outils, ou de les utiliser à distance sous forme de service. Ces offres devraient d’ailleurs proposer des formules d’abonnements très souples comme des paiements à l’usage s’appuyant sur le temps d’utilisation d’un logiciel en ligne par exemple.

Les sociétés de services y voit aussi une opportunité pour proposer des produits mettant en avant leurs compétences dans certains secteurs d’activité pour offrir des logiciels totalement adaptés aux besoins d’entreprises spécifiques, tout en s’appuyant sur des plates-formes standard et des composants réutilisables dans d’autres activités. Plus que de l’agilité, les architectures SOA et les applications composites qui découlent de la combinaison de composants issus de différentes applications devraient enfin réaliser le vieux rêve de l’industrie informatique de proposer des logiciels remplissant 100 % des besoins du client sans pour autant l’enfermer dans le cycle infernal du support de logiciels spécifiques forcés d’évoluer à la vitesse des autres éléments du système d’information dans lequel ce spécifique est intégré.
La pratique de « l’add-on » que proposent certains éditeurs va certainement rencontrer un grand succès. Cela consiste à proposer une plate-forme standard, SAP, Microsoft, Oracle. Sur cette plate-forme, des partenaires intégrateurs ou revendeurs à valeur ajoutée développent des logiciels remplissant une fonction précise, la gestion des temps dans le secteur hospitalier par exemple, et enrichissent la plate-forme de fonctions spécialisées qui n’ont pas forcément le destin d’entrer dans le standard du produit mais permettant de couvrir une fonction précise.

Une nouvelle distribution des rôles s’instaure. Les partenaires verticalisent et offrent les composants spécifiques alors que les grands éditeurs du marché offrent la plate-forme technologique.


2007, l’année de l’Open Source ?

Depuis plusieurs années, le monde de l’Open Source gagne des positions de plus en plus fortes dans les entreprises. Leur place dans les infrastructures, en particulier les infrastructures Web, ne fait même plus débat. La part de marché d’Apache suffirait à le clore. Après cette victoire indiscutable, l’Open Source s’attaque désormais au monde de l’application. Dans certains secteurs comme la gestion de contenu, Web ou non, les positions sont désormais non négligeables. Cependant, malgré ces premiers succès, les entreprises semblent encore réticentes à passer sur des logiciels dont le noyau est libre pour remplir des fonctions applicatives. Ce n’est pourtant pas faute d’essayer. Le discours longtemps convenu comme quoi il n’existait pas d’application est désormais révolu. Il existe plusieurs ERP, des outils de gestion de la relation client, de gestion de production, des dizaines de logiciels de comptabilité-finance, des logiciels de reporting et de décisionnel… Des références intéressantes plaident pour une expansion de la part de ces logiciels dans les entreprises. On peut citer entre autres, le projet mené par Rhapso chez Smurfit Kappa dans la gestion de production.

Bref, l’année 2007 devrait donc être fort riche d’actualités dans le secteur des logiciels. Il faut y ajouter les rachats d’entreprises majeures qui devraient continuer au moins durant le premier semestre de l’année !    n
Stockage
Réduire
STOCKAGE
La guerre des densités
Par Henri Gillarès-Calliat - Copyright L'Informaticien, tous droits réservés

Quels matériels l’industrie va-t-elle nous proposer au cours des prochains mois ? Et quelles perspectives ces nouveautés ouvriront-elles aux entreprises ? Voyons les grandes tendances pour 2007…

Trop souvent encore les entreprises pensent que le stockage des données, leur sauvegarde ainsi que l’archivage sont une seule et même chose. De plus, une étude réalisée auprès de 150 entreprises françaises de plus de 150 personnes, révèle que 99 % des sociétés interrogées sauvegardent 100 % des données de leurs serveurs, alors qu’elles négligent souvent les données des stations de travail, portables et autres ordinateurs de poche.
Elles ont pourtant à leur disposition trois grandes familles de produits : le stockage sur cartouches de bandes magnétiques, le stockage sur disque et le stockage optique. Il faut ajouter à cela le stockage sur mémoire qui se profile à l’horizon, ainsi que de nouvelles technologies.


DISQUE DUR : L’ère du Téraoctet est ouverte

LTOU3_400_04102606.jpg
La technologie LTO Ultrium (400 Go / 800 Go)a été mondialement adoptée par les utilisateurs à la recherche d'un format ouvert.
Si l’on en croit les pronostics des spécialistes du secteur, le disque dur a encore un bel avenir devant lui. Seagate a fait la démonstration d’un disque revendiquant une densité de 421 Go par pouce carré. Dans la foulée, le groupe américain s’est projeté dans l’avenir en imaginant les capacités que pourraient offrir des disques durs d’une telle densité. Ainsi, un modèle de 1,8 pouce destiné en priorité aux lecteurs multimédias portables et aux ultra-portables pourrait offrir un espace de stockage record de 275 Go. Les ordinateurs portables pourraient à l’avenir bénéficier de disques de 500 Go, tandis que nos ordinateurs de bureau monteraient à 2,5 To avec une seule unité de stockage. La surprise vient du fait que de telles capacités pourraient bien voir le jour dès 2009…

De son côté, Hitachi a récemment affirmé qu’il pourrait lancer un disque dur holographique de 1 To très prochainement. Chez le même constructeur, 1 To traditionnel est promis pour 2007 et les 2 To en 2009.

Western Digital innove avec son Raptor 150 Go. La « bête » tourne à 10 000 tours par minute avec 16 Mo de cache et obtient les meilleures performances du moment. Mais, pour se démarquer, il fallait frapper un grand coup ! Ainsi, ceux qui voudront exhiber le disque pourront le faire en s’offrant la version WD1500AHFD du disque. Ce modèle sera équipé d’un capot transparent pour y voir tourner le premier plateau. Le « Raptor X », destiné au tuning, sera en prime plus cher que son homologue WD1500ADFD Raptor 150. Ainsi, pour 50 dollars de plus – soit 350 dollars – on pourra se procurer le modèle transparent. Malheureusement, cette version voit l’estimation de sa durée de vie divisée par deux comparée à celle du  Raptor 150, soit 600 000 heures.


Records de densité

Hitachi a annoncé avoir obtenu une densité surfacique de 43,125 Go par pouce carré en utilisant la technologie d’enregistrement magnétique perpendiculaire (PMR). Le constructeur indique qu’il prévoit du coup de sortir en 2009, année durant laquelle cette densité sera lancée dans le commerce, des disques de 2 To en 3”1/2 (avec 4 plateaux), 400 Go en 2”1/2 et 200 Go en 1”8 (deux plateaux). D’ici à 2016, Hitachi prévoit que l’on pourrait atteindre une densité de 500 Go au pouce carré, et pense qu’au-delà il sera possible d’atteindre les 12,5 Tb/pouce carré. Seagate répond à Hitachi avec un nouveau record de densité : on passe de 43,1 Go/pouce carré à 52,6 Go/pouce carré, en utilisant un enregistrement perpendiculaire. Seagate indique que cette densité pourrait commencer à être commercialisée en 2009, sur des produits de 275 Go en 1”, 500 Go en 2"1/2 et 2,5 To en 3”1/2.

Les tenants du disque arguent que les PME, notamment grâce au petits NAS et aux Raid 5 et 6, trouvent là de bonnes alternatives à la bande. Heureusement pour eux ils ne parlent pas encore de coût au Giga. Cependant, Lucien Dalmasso, P-DG  d’Additional Design, pense que les dés sont jetés et que nous somme rentrés dans l’ère du « tout disque dur ». Pour lui : « C’est plus rapide, plus fiable et économiquement intéressant. »


La concurrence Flash

Samsung propose des « disques durs mémoire ». Si jusqu’à présent les disques durs flashs « abordables » ont manqué de performances, l’arrivée d’un constructeur tel que Samsung sur le marché est prometteur d’autant que les taux de transferts annoncés sont intéressants (57 Mo/s en lecture et 32 Mo/s en écriture). Concrètement, le temps d’accès est de 0,2 ms, le disque ne pèse que 49 g et consomme 0,05 watt au repos et 0,9 watt en activité. Le taux de transfert s’établit à 49,6 Mo/s en lecture et 29 Mo/s en écriture séquentielle.


Marier disques et bandes
La sauvegarde sur disque à beau être le sujet « chaud » du moment, l’attrait qu’elle représente est encore très difficile à estimer. Christian Grémaux, chef de produit stockage chez HP, note que « de très nombreuses interrogations, subsistent pour des entreprises qui ont des problèmes de performances ou de fenêtres de sauvegarde trop vastes », mais cela n’implique pas la fin de la bande. Tous reconnaissent cependant qu’environ 50 % de leurs clients y réfléchissent. Les analystes semblent confirmer ce chiffre. Le Taneja Group indique que 76 % des administrateurs de stockage nord-américains prévoient de marier disques et bandes dans leurs architectures de sauvegarde. La revue « Storage » rapporte que 50 % des 635 administrateurs de stockage qu’elle a interrogés envisagent d’augmenter leurs investissements dans la sauvegarde sur disque.




Stockage holographique

Les chercheurs promettent de grandes avancées en matière de densité de stockage et de taux de transferts grâce à la mémoire holographique. Ici, les données holographiques sont stockées « volumétriquement », dans trois dimensions, dans l’épaisseur même du média. De plus, les données sont stockées et lues dans un format de page capable de contenir un million de bits à la fois. Dans son principe théorique, la mémoire holographique consiste à stocker les données par des méthodes optiques dans des cristaux photosensibles. Les informations sont stockées et extraites par pages entières de données. Chaque page contient jusqu’à plusieurs millions de bits, et les pages sont inscrites successivement à l’aide de deux faisceaux laser. L’hologramme est créé par l’interférence du faisceau objet et d’un second faisceau, appelé « faisceau de référence », dans le matériau d’enregistrement photosensible. Avec la mémoire holographique, les données sont comparées optiquement sans être extraites. Les estimations prévoient une capacité potentielle de 125 Go sur un disque amovible au format 5,25”. Les taux de transfert sont estimés, pour l’instant, à 40 Mo/s.


BANDE MAGNéTIQUE : Une nécessité pour les entreprises

wdfPassport_Pocket2.jpg
Disque dur externe 6Go Passeport - Auto alimenté via le port USB - 3600RPM - 8.30ms.
Décriée par les uns et encensée par les autres malgré ses faiblesses, la bande est encore loin d’être obsolète. Les bandes magnétiques constituent encore les principaux supports de sauvegarde. Les temps d’accès sont plus lents comparés aux autres supports de stockage optiques ou magnétiques. La quantité toujours croissante de données nécessite un stockage pérenne ne serait-ce que pour répondre aux nouvelles dispositions légales (Sarbannes-Oaxley, Bâle II). On préfère donc les sauvegarder d’une façon sûre et disponible, même sur des lecteurs de bandes dont le temps d’accès tourne autour des 25 secondes !
La sauvegarde sur bande gagne du terrain en tant que sauvegarde dorsale. La tendance actuelle est de stocker les données en cours d’utilisation, plus une copie sur disque dur. Et ensuite, 24 heures sont requises pour transférer ces données sur bande pour faire les deuxième, puis troisième versions, et ainsi de suite. Dans l’hypothèse où les données sont sauvegardées pendant sept à dix ans, ce qui correspond aux standards habituellement acceptés par l’industrie, il en résulte une multitude de copies de la totalité des données. De plus, il n’est pas envisageable de les stocker sur disque dur si on peut le faire sur un média qui est cinq fois moins cher, comme c’est le cas des bandes magnétiques. À ce rythme, les solutions de sauvegardes sur bandes magnétiques devraient rester prédominantes au moins jusqu’en 2020 ! « La bande reste une nécessité pour les entreprises », estime Christian Grémaux, chef de produit stockage chez HP. « Nous n’avons rien qui offre un tel rapport qualité/prix pour l’archivage à long terme », poursuit-il. « La bande est complémentaire du disque dur, lequel n’est pas appelé à la remplacer. »


L’AIT-5 disponible


Le stockage sur bande compte de nombreuses technologies différentes, dont les bandes SLR, LTO, DAT, DLT, SDLT et le dernier né, l’AIT-5. Les lecteurs de sauvegarde Apple, HP DAT, LTO Ultrium, Quantum DLT, Ecrix VXA, Onstream ADR, Tandberg SDLT, Tandberg SLR suivent presque le rythme de l’augmentation de la capacité des disques durs. Ainsi, Sony, avec l’AIT-5 disponible dès la fin d’année 2006 (AIT ou Advanced Intelligent Tape), avec une capacité native de 400 Go, offre deux fois la capacité native des modèles précédents. Avec une capacité de stockage de données supérieure, l’AIT-5 est le lecteur le plus compact du marché et le plus puissant de sa catégorie. Il assure un taux de transfert natif soutenu, de 24 Mo/s, une capacité de stockage de 1,04 To par cartouche en données compressées, ainsi que des performances de 225 Go/h. De son côté, le LTO-3 est à 400 Go natif et 800 Go compressé. Le LTO-4 sera à 800 Go natif et 1,6 To compressé avec un débit compris entre de 80 à 160 Mo/sec
Selon Christian Grémaux, « Certains utilisateurs pensent qu’ils peuvent se passer de la bande, mais la sauvegarde sur disque ne répond pas au besoin d’externalisation des données. » Une approche globale de la protection contre les pannes matérielles, les pertes de données accidentelles, avec reprise sur la bande ne devrait pas disparaître. De plus, dès qu’il est nécessaire d’archiver, il faut disposer d’un espace de stockage secondaire qui croît selon la fréquence de l’archivage et la durée de conservation. « Le tout-disque n’est pas une hypothèse économiquement viable aujourd’hui », constate encore Christian Grémaux.


La sauvegarde continue gagne en crédibilité
La sauvegarde continue commence à intéresser les grands de l’industrie. Chasse gardée de quelques start-up américaines, la sauvegarde continue (ou CDP, pour Continuous Data Protection) a du mal à convaincre les entreprises. L’arrivée de quelques géants pourrait cependant avoir un effet de levier, même si leurs solutions ne sont pas encore abouties. Parmi eux, Microsoft, Netapp ou Veritas Software (Symantec). Veritas a ainsi fait la démonstration d’une solution ayant pour nom de code Panther. À terme, celle-ci deviendra son produit de sauvegarde continue. La technologie de sauvegarde continue, qui, comme son nom l’indique, vise à sauvegarder les données de manière continue, est donc bien en train de monter en puissance parmi les tendances actuelles. Aucune solution n’est identique. Mais toutes poursuivent le même objectif : réduire les fenêtres de sauvegarde à néant, tout en assurant une protection maximum. En fait, la CDP profite de l’arrivée des disques à bas prix pour réquisitionner davantage d’espace et capturer les données de manière continue et en temps réel, plutôt qu’une fois par jour, par semaine ou par mois. Veritas, dans son approche, s’appuierait vraisemblablement sur des mécanismes de sauvegarde sur disque en y incluant sa propre logique. À terme, l’éditeur compte surtout simplifier la sauvegarde et autoriser des restaurations via une interface aussi simple que celle d’un browser.




STOCKAGE OTIQUE : Le vrai démarrage du Blu-Ray et du HD-DVD

Nous passerons sous silence les CD, DVD, DVD double couche et le magnéto-optique, qui subit la désaffection des constructeurs, pour nous intéresser au Blu-Ray et au HD. Deux technologies concurrentes annoncent la bataille des nouveaux standards de DVD.
Au royaume de la vidéo numérique, l’affichage n’est pas tout. Avec 20 Go minimum pour un film au format HD en Mpeg2, les supports se doivent d’évoluer. Pour cela, alors que les traditionnels CD et DVD utilisent des lasers à diode rouge, un laser bleu, à la longueur d’ondes bien plus courte est mis en œuvre. Le HD-DVD, promu par Nec et Toshiba, a une capacité de 15 Go en monocouche et 30 Go en double couche. Le format Blu-Ray, que cherche à imposer la Blu-Ray Disc Association menée par Sony, permet le stockage de 25 Go sur une seule couche. Le double couche est prévu pour le premier trimestre 2007 – soit 50 Go – et le quadruple couches pour la fin 2007 – 100 Go. Le Blu-Ray est plus évolutif que le HD-DVD, autorisant théoriquement de stocker jusqu’à 200 Go sur un disque « TDK ».


Les premiers graveurs blu-ray

bluray.jpg
Le blu-ray devrait remplacer le DVD traditionnel assez rapidement. Le simple couche, 25 Go est disponible en attendant, en 2007 la version 50 Go. L’industrie du film va l’utiliser rapidement pour le grand public
Toutes les tentatives de rapprochement pour élaborer un standard commun s’étant soldées par des échecs, nous verrons arriver des lecteurs Blu-Ray et HD-DVD de salon, ainsi que des lecteurs pour nos PC, heureusement à même de lire aussi les formats DVD et CD actuels. Les studios hollywoodiens ayant chacun choisi leur camp mettront sur le marché les films de leur catalogue dans ce nouveau format, MGM et Columbia-Tristar optant pour le Blu-Ray, Warner pour le HD-DVD, Disney et Paramount jouant sur les deux tableaux.
Dans ce contexte, le premier graveur Blu-Ray, le BDR-101A de Pioneer, grave les disques BD-R et BD-RE (réinscriptibles) à la vitesse de 2x. Il prend environ 45 minutes pour graver 22,5 Go, c’est-à-dire la capacité utilisable des disques vierges de 25 Go  (prix : 700 euros). De son côté, Sony a officialisé la sortie en Europe de son premier graveur Blu-Ray pour PC, le BWU-100A. À la norme « PATA », ce disque offre en lecture des débits maximum de 9 Mo/s sur BD-Rom (2x), 10,8 Mo/s sur DVD-Rom (8x) et 4,6 Mo/s sur CD-Rom (32x). Les temps d’accès sont respectivement de 210, 170 et 160 ms. Côté gravure, les BD-R et BD-RE, c’est-à-dire les Blu-Ray inscriptibles et réinscriptibles, sont inscrits à la vitesse de 2x. On atteint les 4x sur les DVD double couche, 8x maximum sur les DVD inscriptibles simple couche et les DVD+RW, la vitesse en DVD-RW étant à 6x maximum. Côté CD, on atteint 24x maximum en écriture et 16x maximum en réécriture.


MÉMOIRES FLASH : La NAND est-elle l’avenir du stockage ?

Plus économe en énergie, offrant une meilleure densité et plus de performance, la mémoire flash NAND semble bien placée pour se substituer aux traditionnels disques durs dans de nombreux produits, dont les PC ; à condition que son prix baisse. À en croire ses fabricants, la mémoire flash NAND aura remplacé, dans les années à venir, les disques durs ou des mémoires d’autres types dans de nombreux appareils.
D’ici à la fin de la décennie, la mémoire NAND pourrait même se substituer complètement aux disques durs sur certains mini-ordinateurs portables, en raison de la capacité de stockage de données croissante de ces puces. « Sans compter que ce type de mémoire flash occupe moins d’espace et consomme moins d’énergie », affirme Steve Appleton, P-DG de Micron Technology, l’un des plus grands fabricants de mémoire au monde.


Cent fois plus chère que les disques durs

Un autre facteur déterminant dans l’essor de cette technologie est son coût : le prix de la mémoire NAND diminue de 35 à 45 % par an, phénomène qui s’explique encore en partie par la loi de Moore, et aussi par le fait que de nombreux fabricants construisent de nouvelles usines. 1 Go de mémoire flash coûte environ 45 dollars à un fabricant de produits électroniques grand public. Ce coût passera à 30 dollars l’année prochaine, 20 dollars en 2008 et 9 dollars d’ici à 2009. À raison de 45 dollars le gigaoctet, la mémoire flash reste donc presque cent fois plus chère que le stockage sur disque dur, qui peut être vendu aux constructeurs environ 65 cents le gigaoctet. D’après les analystes, les mémoires flash seront plus répandues que les disques durs d’ici à 2013. En outre, un ordinateur portable qui utilise une mémoire flash pour stocker des données consomme nettement moins d’énergie qu’un modèle équipé d’un disque dur. Les mémoires flash sont en outre dénuées de pièces mobiles, ce qui en améliore considérablement la fiabilité.
D’autres pistes sont évoquées, notamment la MRam, ou magnetoresistive Ram, une mémoire stockant les données par des charges magnétiques au lieu des charges électriques de la mémoire vive standard. L’intérêt de cette mémoire vient du fait qu’elle combine le temps d’accès rapide des mémoires vives avec la conservation des données hors tension électrique comme le disque dur.


CONTOURNER L’EFFET SUPERPARAMAGNéTIQUE
Stockage à résolution atomique
Les périphériques de stockage basés sur un disque en rotation ont encore de beaux jours devant eux : les disques durs disposent d’une bonne marge de progression, malgré la limite qu’imposera, tôt ou tard, l’effet superparamagnétique. Avec cet objectif en ligne de mire, des chercheurs de HP travaillent depuis un certain nombre d’années sur un programme appelé ARS, ou Atomic Resolution Storage (Stockage à résolution atomique), afin de développer un dispositif de stockage ayant une densité surfacique supérieure à 1 000 Gbits/in2 s’appuyant sur les progrès en microscopie à sonde atomique. Une pointe microscopique survole la surface d’un matériau pour former des images d’une précision de quelques nanomètres. On envisage aussi des techniques de lecture optique à « champ lointain », où la pointe est à environ 1 000 nm (1 µm) du support de mémoire. Cette technologie bénéficie du soutien financier du Département américain de la Défense, par l’intermédiaire de la DARPA (Defense Advanced Research Projects Agency). Il ne faut pas s’attendre à la commercialisation de périphériques de stockage à résolution atomique avant cinq ans.
Stockage magnétique assisté par la chaleur
Les universités Carnegie Mellon, Université de l’Arizona, et d’autres organisations, étudient un autre moyen de contourner l’effet superparamagnétique, qui est amené tôt ou tard à mettre fin à l’évolution des disques durs en termes de densité surfacique. Avec cette technologie, on vise une densité surfacique de 1 000 Gbits/in2. Le stockage magnétique assisté par la chaleur utilise un laser pour chauffer un petit point sur le disque, sur lequel des données doivent être écrites. Le fait de chauffer le point abaisse l’intensité du champ magnétique requis pour écrire sur ce point. Ce procédé permet d’envisager des matériaux à très haute densité, mais sans les forts champs magnétiques habituellement nécessaires pour écrire les données.


p.3
Réduire
E-LEARNING
Il trouve désormais sa place dans les formations
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Dès le départ, l’e-learning a privilégié le monde de l’informatique en proposant des formations sur les outils bureautiques. Cette tendance n’a pas changé et, aujourd’hui, les formations à destination des informaticiens occupent la troisième place pour le nombre des formations en ligne. Quel que soit le sujet, il est possible désormais de trouver à se former en ligne sur des logiciels, des matériels ou des méthodes. Les contenus se sont largement professionnalisés. Les entreprises moyennes se convertissent aussi à ce type d’enseignement.


Tout doucement, l’e-learning s’impose comme une véritable méthode alternative de formation dans les entreprises et en particulier dans le milieu de l’informatique. Les raisons de cet engouement sont nombreuses. En premier lieu, le manque actuel dans certaines compétences en informatique ouvre de nouveaux horizons. Ainsi, des salariés se forment sur de nouvelles technologies pour étendre leurs compétences acquises ou se recycler sur des outils plus modernes. La formation à distance permet de réaliser cette formation au rythme de chacun sans bouleverser la vie professionnelle d’un salarié. Il lui évite des déplacements nombreux vers les centres de formation.
Un sondage réalisé par la CCIP (Chambre de Commerce et d’Industrie de Paris) montre que 49 % des entreprises interrogées utilisent ce mode de formation et prévoient un budget spécifique, principalement consacré à l’achat de contenu spécifique. Ce budget est même en augmentation dans les entreprises de plus de 1 000 salariés.

Les personnels formés par cette méthode sont principalement des techniciens qualifiés ou des agents de maîtrise (79 %) et des cadres.
La plupart du temps, la formation s’effectue à partir du poste de travail de l’entreprise (54 %). Si ce fait indique une bonne adoption par les salariés, il implique aussi que les salariés refusent de laisser empiéter le temps de formation sur leur temps personnel. Le temps de formation est donc pris sur le temps de travail.
Les principaux enseignements prodigués sont, dans l’ordre, la bureautique (59 %), les langues (51 %) et des offres de formation pour les informaticiens (41 %).


Un SICOB de la formation

Dans le domaine de la formation en informatique, Internet tourne au SICOB ou à La Samaritaine. Il est possible de trouver quasiment tout sur tout. Pas toujours sous des formes très conviviales, ni efficaces. Certains sites proposent même des contenus gratuits comme Polymorphe.org qui offre près de 150 cours informatiques sur des technologies différentes et des niveaux allant de débutant à expert très confirmé en particulier dans le domaine de la sécurité. Dans la même veine, UniversitySurf.net propose des formations sur des logiciels plus spécialisés comme des logiciels scientifiques ou bureautiques.
Les universités et les écoles d’ingénieurs ne sont pas en reste et proposent des accès à leurs étudiants sur des ressources pédagogiques. Ainsi, l’Epitech, une école d’ingénieur dans les nouvelles technologies, fournit des documents accessibles à distance pour ses élèves dans le cadre d’un soutien au cours.

À côté de ces formations généralistes, les éditeurs, constructeurs et SSII proposent aussi des cursus en ligne. Les formations délivrées concernent évidemment les produits de ces fournisseurs et s’adressent principalement aux « partenaires », comprenez les revendeurs ou les intégrateurs de ces produits. Ils sont aussi utilisés pour les formations internes de ces entreprises. Ainsi, Steria prévoit dans le cadre du DIF (Droit Individuel à la Formation) des possibilités de formation diplômantes intégrées dans son programme EPass.

Les contenus sont le plus souvent plus techniques que les contenus habituels. Chez Microsoft, ils se présentent sous forme de laboratoires techniques avec des pas-à-pas sur différents produits, comme SQL Server, Exchange ou Visual Studio. Sun, IBM et Oracle ne sont pas en reste et proposent des ateliers techniques en ligne sur leurs produits ou sur des problématiques techniques précises. La fourniture de contenus spécifiques métier est aussi une tendance nouvelle dans le domaine et représentent désormais près de 31 % des contenus d’enseignement délivrés.


Une professionnalisation accrue

Autre enseignement de l’étude menée par la CCIP, les entreprises s’appuient désormais sur des partenaires pour offrir des services de formation en ligne. Elles ne sont plus que 42 % à héberger le système en interne. Un tiers des entreprises n’héberge que partiellement la solution. Dans tous les cas de figure, 62 % ont acheté la plate-forme clés en main.

Cette externalisation se complète de l’achat de contenus spécifiques à l’extérieur. Les entreprises recherchent désormais des contenus adaptés réalisés par des professionnels de la formation. Ceux-ci sont d’ailleurs de plus en plus aguerris aux techniques spécifiques de formation en ligne. Une formation spécifique (FOAD) est d’ailleurs désormais disponible. Des universités, comme Toulouse I, proposent même des cursus spécialisés dans le cadre des études en Sciences sociales. Un organisme de la CCIP, le Préau, dispense aussi cette formation. En plus du contenu, des sociétés de services spécialisés offrent des conseils ou de l’aide à la mis en œuvre. La formation en ligne représente désormais un investissement sur l’avenir dans les entreprises et se voit appliquer les mêmes règles que les autres investissements : juste prix, rentabilité et efficacité. L’appel à des spécialistes permet aussi d’avoir à gérer et à créer le contenu d’une formation. Les ressources nécessaires pour effectuer ce travail ne sont pas forcément présentes dans les entreprises, même de taille conséquente.


À la conquête de nouveaux publics

Longtemps réservé aux cadres ou aux personnels techniques, l’e-learning se généralise vers d’autres publics. Dans la grande distribution, certaines formations produit ou commerciales se font par l’intermédiaire des caisses des points de vente qui deviennent l’interface de formation dans les magasins. Selon l’étude menée par la CCIP, 29 % des entreprises interrogées forment de 11 à 50 % de leurs salariés par ce moyen : 25 % en forment plus de 50 %. Dans certaines entreprises, l’enseignement en ligne devient la norme. Les PME-PMI connaissent une forte augmentation de l’utilisation des méthodes d’enseignements en ligne. Celles-ci représentent le prochain eldorado des fournisseurs de plates-formes.

Malgré le phénomène de généralisation de l’e-learning, les enseignements en salle ne disparaissent pas et permettent de valider ou de suivre les efforts poursuivis par « l’apprenant » en ligne. Cette omniprésence de l’enseignement en ligne devrait se renforcer avec la possibilité de se former partout avec le développement de services d’enseignement « mobile ». Pourquoi pas des formations à base de QCM sur un PDA, où il suffit de cocher des cases avec un stylet et de transmettre ce questionnaire en MMS ? Technologiquement possible, ce nouveau terrain de conquête de l’enseignement en ligne devrait voir le jour assez rapidement.



LES PLATES-FORMES D’E-LEARNING
Les plates-formes se scindent en une typologie assez simple. La dichotomie se situe sur le fait qu’elles soient payantes ou non. Learning Space, Vigiportal, WebCT ou SABA sont les plus connues dans le domaine payant. Claroline.Net, Acolad, Moodle ou Ganesha sont en revanche des plates-formes Open Source gratuites. Claroline repose, par exemple, sur la stack PHP/MySql. Ces plates-formes Open Source réalisent une véritable percée. Encore créditées de 8 % du total des plates-formes utilisées en 2004, elles représentent aujourd’hui près de 21 % du marché sur un total de 250 plates-formes d’e-learning recensées. La deuxième distinction entre les plates-formes repose sur le contenu et les compétences des formateurs et le public visé : particuliers ou entreprises.