samedi 1 octobre 2016
 
Dossier
Réduire
Les bons plans pour la hotline
COMMENT ORGANISER VOTRE SUPPORT

Qu’ils soient internes ou externes, les « clients » de l’informatique exigent un niveau de service haut de gamme pour leur environnement de travail. Pour les personnes du support, il n’est pas toujours aisé de répondre à ces demandes. Alors, quelles sont les bonnes pratiques pour offrir un support irréprochable à ces différents « clients » ? Les principales difficultés semblent organisationnelles, que ce soit dans la gestion des compétences ou des ressources humaines. Avis d’experts sur les pratiques qui permettent de faire la différence !

Nouveau-centre-Webhelp44736.gif

Comme tous les services informatiques, moins on en entend parler et mieux ils fonctionnent. C’est aussi le cas pour les services de support ou autres hotlines et help-desk. Certains opérateurs alternatifs découvrent actuellement le prix, en termes d’image, que peut avoir un service de support médiocre. Alors, que faire pour éviter ce genre de mésaventure ?

La première bonne question à se poser, lors de la mise en œuvre d’une hotline, est de définir à quoi elle va servir. Le but le plus évident est de satisfaire les clients. Ce point acquis. Comment le réaliser ? Est-ce de fournir rapidement la réponse adéquate ? Est-ce simplement de rediriger le client vers le bon service de l’entreprise ? On le voit, cette simple question de bon sens peut amener de nombreuses réponses.


Les clients internes sont les plus exigeants

Portrait-Emmanuel-ANIQ51467.gifEmmanuel Anique, responsable avant-vente chez Help-Line.
Emmanuel Anique, responsable avant-vente chez Help-Line, résume la problématique : « Le défi de mettre le bon niveau de compétence derrière un téléphone face à une masse de sollicitations hétéroclites. » Philippe Magne, chez Arcad Software, ajoute : « Ce n’est pas une clé que l’on tourne, il faut aussi effectuer un travail d’éducation vis-à-vis des utilisateurs. »
Il s’agit aussi de prendre en compte le fait que la tâche est encore plus difficile quand la hotline ou le help desk servent des clients en interne à l’entreprise. Tous les experts interrogés lors de cette enquête se sont accordés pour dire que les clients internes étaient très largement plus exigeants que des clients externes à l’entreprise. Cette exigence dépend aussi de la criticité ressentie de l’incident par l’utilisateur. Si le rôle principal est donc bien de rendre un service à l’utilisateur, le support ne doit pas seulement se limiter à cela et doit savoir faire le lien avec le service commercial, car la bonne réponse possible peut être la vente d’un autre service ou d’une up-grade ou d’une mise à jour de la plate-forme. Il faut donc savoir rester flexible sur les attributions des services de support.


Des demandes diverses

Le principal problème des hotlines est de traiter des demandes de niveaux diverses. En fait, une loi comme celle de Pareto s’applique aussi au support. 80 % des appels demandent des réponses simples et peuvent être traitées rapidement. Les 20 % restants exigent en revanche des réponses complètes, nécessitant des niveaux de compétences souvent plus importants avec des opérations de cascading vers des experts ou des éditeurs lorsqu’il s’agit de problèmes sur des logiciels. Cette « gymnastique » réclame de bien avoir organisé les compétences à même de répondre aux questions posées.

Ainsi, si le premier niveau n’est pas bien formé, il aura évidemment tendance à « cascader » des incidents simples vers des experts engorgeant ainsi les niveaux supérieurs du support. À l’inverse, il ne faut pas non plus limiter le premier niveau aux réponses simples. Il est possible de déléguer, au fur et à mesure de la montée en compétence du premier niveau, de plus en plus de réponses, dont certaines complexes, pour décharger le niveau des experts.
Emmanuel Anique ajoute : « Il faut savoir rapidement faire la différence entre le problème qui provient du fait que l‘utilisateur n’a pas lu le manuel et un vrai problème. Bien souvent, les problèmes proviennent de l’ergonomie de certains produits. Moins celle-ci est affinée et plus les problèmes basiques risquent de survenir car l’utilisateur ne saura pas s’y retrouver. » Il ajoute : « La phase de diagnostic est importante, mieux le diagnostic est réalisé, plus simple sera la résolution. »
Ce premier défi est plutôt organisationnel et ne demande pas vraiment de connaissance technique, il s’agit de bien organiser les différentes possibilités. Évidemment, les workflows et scripts aident à une automatisation de cette tâche importante.
En rapport avec la diversité des demandes, il faut évidement prévoir les pics de charge. Grosso modo, les nouvelles versions, les mises à jour, les patches sont des terrains fertiles pour les hotlines. Le support doit à ce moment là absorber un nombre de demandes grandissantes, mais aussi s’être préparé à y répondre. Une formation en amont est donc évidente. Pour le moins, il est important de mettre le support dans la boucle lorsqu’un déploiement est prévu. Emmanuel Anique ajoute : « C’est un bon réflexe d’impliquer le support dans les déploiements, en leur donnant les dates de ces déploiements, c’est encore mieux de l’impliquer dès la phase de recette ou de test. »

Un des éléments clés est justement de ne pas engorger, lors de ces événements, la hotline téléphonique. Certains outils comme des bases de connaissances ou des FAQ en ligne peuvent y contribuer.


Quand le Web vient en aide au support téléphonique

julien-bianchini51560_Copi9.gifJulien Bianchini de Neocase.
Beaucoup de demandes peuvent être traitées autrement que par le support téléphonique. Une base de connaissances sur les incidents ou problèmes fréquents ou simples permet d’apporter une réponse rapide. Julien Bianchini de Neocase Software explique : « Le self service peut être une approche avec des outils en Intranet ou en Extranet, comme des FAQ avec la possibilité de poser des questions en ligne. Plus l’utilisateur est autonome et plus sa satisfaction sera importante, car il n’aura pas à solliciter quelqu’un et verra que sa demande a été prise en compte proactivement. » Sur ce point Philippe Lecerf, directeur de la qualité chez Webhelp, est plus circonspect, s’agissant des clients externes : « Il faut toujours voir cependant l’équilibre entre ce système et la hotline qui est un point de fidélisation pour le client. » Emmanuel Anique précise : « Le système de self service est particulièrement pertinent pour les incidents qui se diagnostiquent facilement et qui se résolvent tout aussi facilement. Il faut également veiller à une bonne communication autour de ce service. Cela demande cependant de formaliser par écrit les différentes solutions aux incidents. »

Philippe Magne, chez Arcad Software, va plus loin : « Le but est de faire comprendre que c’est donnant-donnant, l’écrit a pour contrepartie une traçabilité, une transparence dans le suivi. Il faut donc éduquer vers l’écrit, qui permet de capitaliser la connaissance du support et évite de répondre dix fois la même chose. Si ce système fonctionne bien aux États-Unis, il semble plus difficile à mettre en place en France où le public semble moins mûr pour cette approche. Derrière cela, il y a cependant des engagements sur lesquels peut s’appuyer l’utilisateur. »


Analyse sémantique des mails entrants

Encore plus sophistiquée, la solution d’Eptica réalise une analyse sémantique des mails entrants pour qualifier la demande et apporter la réponse la plus appropriée présente dans la base de connaissances. Il est possible par ce moyen d’absorber près de 40 % des demandes et ainsi de réellement désengorger le flux téléphonique vers la hotline. Cette solution est très utilisée dans le monde de la distribution et de la banque. Il est possible de démarrer très rapidement avec quelques réponses puis d’étayer le nombre de réponses au fur et à mesure des demandes et de la constitution de la base de connaissances. L’outil supporte de plus des fonctions de conavigation ou « co browsing » permettant d’amener l’utilisateur vers la bonne réponse. L’avantage de cette solution est de former le « client » à l’utilisation de la base de connaissances et une fois de plus de le rendre autonome pour résoudre ses problèmes.

Julien Bianchini, chez Neocase, indique : « Pour réaliser ce site Web, on ne va pas construire un nouveau site, on va se plugger sur l’existant avec la même charte que le site du client, reprendre son processus de login-mot de passe. C’est à partir de là que l’on plugge la base de connaissances. » Olivier Namja, P-DG d’Eptica, ajoute : « La réponse par le Web est souvent moins immédiate que par téléphone, mais elle est souvent de meilleure qualité. »



Suivi des opérateurs
Certains outils du marché, comme ceux de Netwise, permettent de voir la présence des différents opérateurs selon les niveaux de compétences par des codes couleurs. Ainsi, un expert avec un code couleur rouge ne sera pas présent ou disponible, en orange, il sera en train de résoudre un problème, en vert il sera disponible pour répondre à une sollicitation suivant ses compétences.




Routage vers les experts

Sylvain Lamblot, directeur général de Netwise, estime  que « la plupart des outils du marché sont surdimensionnés. Nous nous plaçons sur le créneau des centres de hotlines entre 5 et 20 positions. Si la ToIP est intéressante, on peut commencer avec son PABX avec un protocole CTI puis migrer ensuite vers IP ». La plupart des outils du marché, dont ceux de Netwise, comportent des API ou des connecteurs permettant de faciliter l’intégration de ces outils de téléphonie avec les applications présentes dans l’entreprise, dont les logiciels de CRM ou de bureautique.

La plupart des outils intègrent aussi des scripts ou des pop-up qui vont chercher dans une base de données les fiches clients. Les fonctions de routage d’appels vers les experts ou les répondants sont désormais des fonctions de base. La gestion des files d’attentes est un must. Le logiciel de Neocase permet de plus de router l’appel ou la demande vers le répondant le plus proche géographiquement de l’utilisateur. L’avantage est de pouvoir ainsi localiser le support si un déplacement est nécessaire, suite à cette intervention de support. Il est d’ailleurs intéressant de voir que les outils embarquent pour beaucoup de réelles bonnes pratiques. Pour de petites entreprises, il est donc possible de les adopter en suivant tout simplement ce que proposent aujourd’hui les outils. De plus, les logiciels de centre d’appels soignent la facilité de déploiement avec des outils graphiques simplifiant si nécessaire les changements qui ne manquent pas d’intervenir dans les workflows et scripts de réponses.
Certains logiciels comportent même la possibilité d’une prise en main à distance. Philippe Magne les trouve très intéressants : « Les outils de prise en main sont très efficaces pour isoler un problème en temps réel. Ces outils de prise en main sont déjà une solution. La difficulté est de savoir quand on doit les utiliser. Ils représentent un vrai confort pour l’utilisateur. La balance est difficile à gérer. Il n’y a pas de règles précises. Dans le secteur bancaire, il est complètement interdit d’utiliser ce type d’outillage. »

Certains des experts interrogés préconisent de spécialiser les ressources sur ce canal. D’autres sont plus partagés et favorisent de faire tourner les répondants du téléphone sur le mail pour développer leurs compétences et de ne pas enfermer les répondants sur un seul canal. Comme on le voit, il n’y a pas de vérité révélée en la matière.

Point organisationnel important, le Web est disponible tout le temps. Sur des produits assez grand public, il faut s’attendre à accueillir des demandes en dehors des heures de travail habituelles. Le client ou l’utilisateur s’attendra cependant à ce que que l’on s’occupe de lui pendant ces horaires indus. Là encore, le recours à une possibilité de réponse autonome avec une base de connaissances est souhaitable sinon nécessaire.


Surveiller le taux d’escalade

Le service de support devient rapidement le dépositaire de l’image de marque de votre société. Par la présence de ce service, vous montrez que vos clients ont de l’importance pour vous. En échange, celui-ci s’attend à un service de grande qualité lorsqu’il rencontre un problème sur le produit que vous lui avez vendu. Cependant, il ne s’attend peut-être pas à ce qu’un employé de votre support décroche dans les 5 secondes suivant son appel. Peut-être encore moins de pouvoir contacter votre support 7 jours sur 7 ou 24 heures sur 24. Là aussi, le réalisme et le pragmatisme doivent dominer.
Laurent Mimault, directeur général adjoint de Tech City explique : « Beaucoup de nos clients arrivent avec des métriques en tête comme celles que vous indiquez. En réalité, les utilisateurs acceptent d’attendre une ou deux minutes si ensuite la personne qui répond s’occupe véritablement d’eux. Ce qui importe, c’est qu’on lui donne la bonne info et qu’on ne lui dise pas des bêtises, sinon on génère beaucoup de négatif dans l’esprit du client ou de l’utilisateur. »

Emmanuel Anique est tout aussi pragmatique : « Un client n’avait que pour métrique la satisfaction finale du client. Les objectifs étaient seulement sur ce point. Pour d’autres, ce sont des métriques dans tous les sens. La vérité est entre les deux. Certains suivis sont nécessaires. Il faut avoir une idée de sa disponibilité téléphonique en rapidité de décroché, ainsi que le nombre d’appels décrochés avant abandon. De base, ces deux critères là sont importants, il faut ensuite prioriser l’un ou les deux. Il est possible d’approfondir l’analyse dans l’organisation du help desk, avec le suivi de l’efficacité des réponses, des coûts et de la stabilité de ces coûts, du suivi pour la mise à disposition de la bonne compétence au bon moment. Il est intéressant aussi d’avoir le taux de résolution et de le maximiser, en utilisant plus la base de connaissances. Il est souhaitable de regarder le taux d’escalade et de bonne escalade vers les bons groupes de supports. Les aller et retour sont catastrophiques pour la qualité de service. Il faut trouver le bon équilibre entre le coût du service et la satisfaction du client. »

njamfa2351571_Copier10.gifOlivier Namja, PDG d’Eptica.
Olivier Namja résume : « Les statistiques sont là pour répondre aux questions, quand ? pour qui ?, par qui ? » Il poursuit : « Les rapports sur la productivité sont utiles s’ils permettent de réellement trouver la cause du problème. Nos outils permettent de zoomer sur certains mails et ainsi de remonter à la cause sur le mail élémentaire de départ pour voir par exemple si c’est une erreur de diagnostic ou une demande peu claire ou très complexe. »
Sylvain Lamblot ajoute : « Les outils de supervision graphiques peuvent être sur des fréquences différentes, jours, semaines, mois avec par exemple la mise en relation des appels avec les agents et le temps de traitement. D’autres peuvent être plus techniques pour les responsables télécommunications ou réseaux pour un suivi mensuel ».


Le support a droit lui aussi aux RTT…

La principale difficulté, dans la mise en place d’un service de support, reste la gestion des ressources humaines affectées à cette tâche. Tout d’abord, certains le regrettent, il existe un code du travail pour les entreprises. Il faut donc mettre en place un système pour gérer… Les absences ! En effet, vos équipes de support vont prendre des congés, auront droit comme les autres aux RTT ! Cet aspect peut être lourd. De plus, les salariés du support doivent toujours être au meilleur niveau sur les produits qui sont proposés à vos clients ou partenaires. Cela implique un véritable plan pour la formation de ces personnels. Mais quand ils sont en formation, ils ne répondent pas au téléphone ou aux mails de vos clients.

Laurent Mimault, chez Tech City, explique : « Nous travaillons beaucoup sur la flexibilité de nos équipes dédiées. Pour beaucoup, les gens se lancent sans réellement savoir tout ce que cela implique dans ce type de gestion comme les heures de plages de support à assurer, le turn-over, les sessions de formation permanente, le fait de travailler six ou sept jours par semaine et parfois en plusieurs langues. Sans compter qu’ils oublient souvent de compter nombre de coûts cachés, comme les mètres carrés alloués au support, la gestion et la maintenance d’un PABX. »


La tentation d’externaliser

ARCAD-Software---Phili44828.gifPhilippe Magne d’Arcad Software.
Philippe Magne indique : « L’utilisation du Web avec des clients, qui peuvent vous contacter tout le temps, peut engendrer des surcoûts significatifs avec des équipes de permanence sur des plages horaires importantes. »

La place prise par les équipes de supports est différente selon les entreprises. Le support est en effet un poste de vigie idéale pour remonter les améliorations à apporter à un produit comme un logiciel, tant en termes d’ergonomie que de fonctionnalités. Souvent, dans ce cadre, le support est un tremplin vers une évolution vers des postes techniques ou commerciaux. Dans d’autres structures, le support laisse moins d’espoir. Un expert interrogé nous a clairement indiqué « qu’ils ne pourront pas tous devenir manager ». Suivant les compétences techniques nécessaires, le profil d’un employé du support va du Bac à Bac+4 ingénieur. Comme pour l’informatique, le monde du support est plutôt masculin.

Ces différentes questions sociales font que beaucoup d’entreprises pensent externaliser ce type de prestations auprès de spécialistes du support. Là encore, le curseur dépend de la stratégie de l’entreprise. Un des experts interrogés nous a aussi signalé l’interrogation de certains acteurs du marché de délocaliser cette activité vers l’étranger. Une des zones les plus en vogue est le Maghreb, en particulier le Maroc, qui est en tête des destinations actuelles pour l’industrie des centres d’appels.
Il est même désormais possible de profiter de solutions en ASP comme celle de Neocase. Julien Bianchini précise : « Avec cette solution, les projets se lancent vite et le client n’a pas à s’occuper de tout le côté technique, il n’a qu’à réfléchir à son organisation. D’ailleurs, nous constatons rarement des cas de réinternalisation après ce choix. »


Un vecteur d’image

L’importance d’un bon support est aussi une question d’image de marque. Certains FAI se font régulièrement accrocher sur la qualité de leurs services. Grégoire Bouthonet, directeur technique d’IPEX, trouve le débat étonnant : « Comment demander un service pour le prix de l’abonnement offert ? Il semble facile de taper dessus. On ne peut pas tout avoir et en plus le sourire de la crémière ! » Il en reste en tout cas que l’image est atteinte. Si le but du support est de satisfaire le client, il est aussi d’apporter une bonne image de l’entreprise par sa réactivité et sa compétence pour un coût raisonnable pour l’entreprise qui offre ce service. La quadrature du cercle ?


Le canal mobile
D’autres canaux émergent dans le support. Après le téléphone et le mail, certaines entreprises visent le canal mobile. Ainsi, des entreprises emblématiques comme Ten Mobile ou Meetic utilisent d’ores et déjà le SMS pour notifier l’envoi de la réponse mail à un incident. Ce canal devrait se développer à l’avenir avec l’augmentation de la bande passante mobile et l’utilisation désormais quotidienne de ces technologies. Un peu plus loin se profile l’utilisation de vidéos dans les bases de connaissances, celles-ci pouvant d’ailleurs être téléchargées sur des mobiles.


Métier
Réduire
DES INFORMATICIENS POUR DEMAIN
Le Syntec invite les jeunes à changer le monde !

Pour remédier à une relative désaffection des jeunes générations pour les filières scientifiques et techniques, qui entraîne une tension sur l’emploi dans le secteur de l’informatique, le Syntec Informatique lance une grande campagne pour renforcer l’attractivité de cette industrie auprès des jeunes.

Lors de la présentation de la campagne du Syntec Informatique, Jean Mounet, le président de cette institution, faisait un constat : « Sur 100 Bac S en 1995, 57 % s’orientaient vers des carrières scientifiques et techniques. En 2005, ce chiffre est tombé à 39 % ». Cette désaffection commune à la plupart des pays développés occidentaux provient largement d’une image totalement « injustifiée » du secteur de l’informatique auprès des jeunes. La tendance est à mettre en parallèle avec les vagues d’ingénieurs formées chaque année en Inde ou en Extrême-Orient.


Un contexte de rupture

Ces éléments s’insèrent dans un contexte spécifique de différentes ruptures avec des idées qui étaient encore, il y a peu, bien ancrées dans les esprits, comme l’explique Vincent de Bary, de la Cofremca, qui a réalisé une étude sur la vision que les jeunes ont des métiers de l’informatique.

Ses conclusions n’incitent pas à un optimisme débridé. Car les diplômes ne garantissent plus de trouver un emploi durable et intéressant. Dans ce contexte plutôt déprimé, les jeunes trouvent tout de même un certain attrait dans les industries liées à l’informatique. Le côté métier-passion vient en premier, avec la possibilité d’apprendre des choses nouvelles. La plupart des jeunes conçoivent l’informatique comme un métier d’avenir où l’on peut progresser tout au long de la vie. Les jeunes apprécient aussi les contacts que procurent ce type de carrière, et le fait de faire avancer les choses de manière pratique. D’ailleurs, lorsque la Cofremca demande à son échantillon de jeunes dans quels secteurs ils souhaitent travailler plus tard, l’informatique et les technologies viennent en troisième position derrière… le journalisme et/ou la communication, et l’enseignement ! Un désir d’informatique qui est toujours plutôt masculin d’ailleurs. Ces quelques bons points ne compensent pas les images, parfois désuètes, qui collent au métier d’informaticien.


Un technicien autiste perdu dans un monde froid !

La conclusion sur les côtés négatifs de l’étude de la Cofremca sur l’attractivité du métier d’informaticien explique que bien souvent celui-ci a du mal à expliquer réellement ce qu’il fait sans avoir à entrer dans un vocabulaire technique. Ce faisant, il peine à décrire son métier aux autres, qui le trouvent donc peu attirant. En conséquence, les jeunes ont une vision de l’informatique comme un monde froid, techniciste, cloisonné, à faible reconnaissance, notamment sur les salaires. L’image de l’informaticien est aussi peu valorisante dans l’inconscient collectif des jeunes. Il est le plus souvent décrit comme un travailleur solitaire évoluant dans un univers masculin sans valorisation des qualités humaines et dans lequel seule la passion permet de s’épanouir. Bref, « informaticien = Rain Man », un inadapté perdu dans sa bulle Internet ou pas…


Une campagne pour changer l’image de l’informatique

Pour remédier à ce constat plus qu’en demi-teinte, le Syntec lance donc une grande campagne pour insister sur les aspects positifs d’une carrière dans l’informatique. Cette campagne s’articule autour d’un jeu en ligne, « changeurs de monde », qui proposent des « missions » sur des problèmes actuels et concernant les jeunes. Ces différentes missions font gagner des points qui permettent d’obtenir des stages dans les entreprises du secteur, des logiciels… Le but est de faire découvrir les multiples métiers du secteur et leur réalité, loin de l’image habituellement véhiculée. D’un graphisme « à la manga », le site est opérationnel depuis le 15 mars 2007. Des opérations de communication seront lancées auprès des médias attirant le plus les jeunes. Des opérations auront également lieu dans les écoles et collèges, ainsi que sur des salons, forums ou journées portes ouvertes dans des écoles du réseau Pasc@line, une association qui lie par partenariat des écoles avec le Syntec Informatique.



ÉCOLES
Les Epita-Epitech se déclinent en province

Le pôle technologique du groupe de formation Ionis, qui gère les différents Epita et Epitech, va déployer dès la prochaine rentrée de nouveaux sites à Bordeaux, Lille, Lyon, Nantes, Strasbourg et deux à Toulouse. Les nouvelles implantations profiteront, comme les sites de Paris, des partenariats passés avec de grandes entreprises industrielles ou de partenaires informatiques comme Cisco, Microsoft, Apple, Sun, Oracle…
L’enseignement ne s’arrêtera pas à une formation technique et mettra en valeur les qualités humaines, la formation de l’esprit, la stimulation de l’inventivité et l’élévation du potentiel individuel. Ces nouvelles ouvertures constituent la première étape d’un plan tri-annuel destiné à dynamiser la présence des écoles en Europe.


CODEUR.COM
Une place de marché pour les freelances


Il n’est pas simple actuellement pour les informaticiens freelances de se faire une place au soleil. Une start-up, codeur.com, se propose de mettre en relation des porteurs de projets Web et informatiques et des prestataires freelances par le moyen d’Internet.

Le principe du site est de fonctionner comme une place de marché. Les entrepreneurs et les webmasters publient leurs appels d’offres gratuitement sur le site. Le but est de recevoir en moyenne cinq offres de prestataires freelances en 24 heures. Les offres et les réalisations sont publiques ce qui doit entraîner une concurrence accrue.
Le site a déjà porté près de 100 projets : 250 prestataires et 150 clients sont inscrits sur le site depuis le début de l’année. En moyenne, ce sont plus de 200 000 euros d’offres, lesquelles sont présentes sur le site dans des domaines aussi variés que l’e-commerce, le graphisme, les sites clés en main, le web marketing et le développement. En tout, le site propose trente domaines d’expertise.

Pour le paiement, les sommes sont déposées sur un compte bloqué, ce qui assure le paiement pour le prestataire, mais aussi la qualité du travail effectué pour l’offreur. Le site propose également de générer des devis en PDF téléchargeables.


MASTERE
Télécoms et informatique mobile

Accréditée par la conférence des grandes écoles, l’Ensea ouvre les inscriptions d’un mastère spécialisé sur les technologies des télécommunications et de l’informatique mobile. Cette formation Bac+6 en partenariat avec l’ITIN s’effectue dans le cadre de la formation continue.
Elle débutera en septembre prochain avec une promotion de 24 élèves. Elle conduira aux métiers de concepteur d’applications mobiles, d’ingénieurs en infrastructures mobiles, architectes en réseaux et télécommunications ou experts en sécurité des applications mobiles.



Du CAP d’ajusteur à la gestion des performances

Manager des performances en milieu industriel sensible n’est pas à la portée du premier venu, surtout en démarrant sa vie professionnelle avec un CAP d’ajusteur. C’est pourtant l’itinéraire, pour le moins hors norme, qu’a suivi Jean-Claude Amiot.


Qu’y a-t-il de commun entre une boîte à piles pour le siège éjectable du Rafale, un tourne pages pour paraplégique et un lecteur braille pour non-voyant sur le Minitel ? Celui d’avoir été mis au point par Jean-Claude Amiot, informaticien doté d’une imagination très fertile.
Ce consultant senior chez Data Proxima, membre de l’Anif (voir encadré), passionné de mécanique, a commencé sa carrière avec un CAP d’ajusteur en poche, un BEP de mécanicien monteur et un BP de dessinateur. Un bagage idéal pour Jean-Claude Amiot, qui poursuit ainsi un rêve de gamin : « Je voulais réfléchir, comprendre et inventer. Comme tous les enfants, j’ai joué au mécano, et j’avais besoin de construire quelque chose de mes mains. Pour moi, travailler sur les machines et sur des dessins industriels, c’était une façon de réaliser mes aspirations d’enfant. » Cette passion de l’invention l’amène donc à intégrer d’abord le secteur militaire, plus précisément le CEA (Commissariat à l’énergie atomique) : il y réalise des gammes et outillages pour soudages TIG, MIG et Laser. Au cours de son passage dans le monde militaire, Jean-Claude Amiot déposera pas moins de quatre brevets : un brevet sur la connectique d’équipements militaires RITA, un autre sur la connectique largable et une boîte à piles pour le siège éjectable du pilote sur le Rafale, un brevet sur la connectique militaire des chars AMX et VAB, et un dernier relatif aux relais électromécaniques sans rebond (telecoms URA).


Organiser les processus

En « Géo Trouvetou » dans l’âme, mais plus organisé que l’inventeur déjanté de Walt Disney, Jean-Claude Amiot a besoin d’organiser les processus pour trouver ses marques : « J’essaie de me situer en permanence dans un système, sur des axes de progression, que ce soit dans le domaine de la qualité, de la gestion des risques, ou des systèmes d’information. Je raisonne en permanence en trois dimensions, sur l’organisation, sur la gestion des systèmes et des risques. Son obsession de l’analyse systémique le conduit à sortir du secteur militaire et à « pousser le plus loin possible les frontières et les limites de ce qui peut être organisé ». Insatiable et toujours désireux d’apprendre, Jean-Claude Amiot s’inscrit alors au CNAM, pour suivre les cours du soir sur la mécanique générale et les mathématiques générales.
Parallèlement, il rentre chez Thomson comme responsable Études et mesures hyperfréquences, puis se spécialise comme consultant. Les missions « très diverses » se suivent et ne se ressemblent pas. « J’ai travaillé dans le secteur médical : j’ai notamment étudié et réalisé un bistouri électrique, une sonde œsophagienne, un lecteur braille pour non-voyants, un tourne-pages pour paraplégiques. » Inventeur jamais repu, Jean-Claude Amiot aime aussi le management. Directeur technique pour Sofadi de 1993 à 1994, il manage 35 personnes en temps que responsable Études et développement, responsable du service Qualité et responsable des Achats. Informaticien par plaisir, il avoue avoir du mal, parfois, à se reconnaître dans le trajet stéréotypé d’un informaticien.
 

Des missions très variées

Jean-Claude Amiot intègre Data Proxima en 2005 et y enchaîne des missions très variées en tant que consultant senior : il cartographie des modes d’organisation chez PSA (Peugeot Citroën), il analyse les risques et la gestion documentaire pour le domaine spatial (Ariane V), il créé le système qualité ISO 9001 pour le réseau de Transport de l’énergie d’EDF, il analyse des systèmes d’information et des processus industriels sur SAP pour Renault Agriculture - Claas. Jamais à cours d’idée, Jean-Claude Amiot trouve aussi le temps, le week-end, de restaurer de vieilles voitures « et un moulin à eau dans le Perche qui fait chambre d’hôtes », précise-t-il. « Le travail du bois et de la pierre, ça me passionne. » On le croit sur parole…

L’ANIF, une association sur-mesure pour les informaticiens
L’Association nationale des informaticiens de France (Anif) est une association loi 1901 qui a pour mission d’aider les informaticiens à se situer parmi les opportunités du marché français, et de les accompagner dans leur parcours professionnel, jusqu’à l’âge de la retraite. Elle a pour ambition de les assister dans leur gestion de carrière, par une meilleure visibilité des métiers, et à anticiper l’évolution des besoins en compétences informatiques grâce à la prospective.
Livres
Réduire
Un modèle de tests !

UTTING_PRACTICAL_CVR_2.jpgSouvent considéré comme le parent pauvre dans le cycle de vie du développement, le test soulève un intérêt croissant qu’il soit méthodologique ou technique. Si l’approche RBT (Requirements Base Testing) s’impose dans les grands produits du marché, l’approche modèle suit aussi sa voie sur le plan technique. Cette Approche MBT (Model Base Testing) permet la génération automatique de tests à partir de modèles UML du RBT, rapprochant ainsi les plans de tests des exigences fonctionnelles.
Cette technologie se place en rupture des procédures classiques de tests qui ne semblent plus correspondre aux besoins des cycles de mises sur le marché de produits logiciels, que ce soit en termes de temps ou de fiabilité.
Cet ouvrage est  écrit par un docteur en informatique de l’INSA Lyon, co-fondateur de Leirios, une entreprise éditrice de logiciels de génération automatique de tests, et par un professeur néo-zélandais de l’université de Waikato, qui collaborent tous les deux depuis l’année 2000 dans le cadre d’un programme de coopération scientifique entre la France et la Nouvelle-Zélande. Le livre va plus loin que la simple énumération des concepts et il explique pratiquement comment réaliser des tests à partir d’un modèle. Il met en évidence les bénéfices opérationnels attendus, notamment en termes de réduction de coûts, à travers une dizaine d’études de cas.
Destiné aux professionnels du développement informatique et de la qualité logicielle (chefs de projets, testeurs, développeurs, responsables validation…), cet ouvrage est une première dans la synthétisation de l’état de l’art de cette technologie de tests, qui semble promise à un avenir intéressant selon les analystes du secteur. Un futur classique ? Pas sûr, mais certainement un livre à consulter pour concevoir l’activité du testing différemment. Pour les utilisateurs avancés parlant l’anglais !

Practical model base testing
A tools approach


Auteurs : Bruno Legeard et Mark Utiing

Éditeur : Editions Elsevier, 431 pages, 50 euros environ


La montée en puissance d’Itanium

Ce livre est un bouquin précieux ! Il est rare en effet que les entreprises développant un produit aussi sophistiqué qu'un processeur, rendent ensuite publiques les raisons stratégiques ou partenariales qui leur ont fait choisir telle ou telle voie. C’est le cas ici par les concepteurs du processeur Itanium chez HP. Jerry Huck, que nous avons eu le plaisir d’interviewer lors de la présentation de cet ouvrage à Paris, est intarissable sur cette aventure qu’il qualifie autant d’humaine que d’économique ou technologique.
L’ouvrage reprend d’ailleurs ces différents aspects dans son développement. Les premiers chapitres détaillent les pré-requis et le pourquoi économique du développement des puces Itanium. Les six premiers chapitres intéresseront donc plutôt les analystes, les directeurs financiers ou les contrôleurs de gestion informatique.
Les chapitres suivants entrent dans les détails techniques et l’histoire en elle-même du processeur Itanium. Les derniers chapitres traitent de l’avenir de la plate-forme et des générations futures du processeur. L’ouvrage est donc à la fois didactique et informatif. Nous ne dirons cependant pas qu’il est réellement objectif, mais comme dans le récit d’une aventure, un des acteurs donne sa vision de ce qu’il a vécu ou ressenti.
Le côté informatif ou didactique est renforcé par la présence d’un résumé à la fin de chaque chapitre – intéressant pour ceux ne voulant que l’essentiel de l’ouvrage – et par des annexes et glossaires.

Des études de cas sont aussi présentes et mettent en lumière des applications concrètes de la plate-forme dans des grandes entreprises ou dans des contextes technologiques précis. On retiendra principalement les exemples de l’Université du Tennessee et de Sony ImageWorks, qui semblent les plus significatifs des apports de cette plate-forme.

Itanium Rising, Breaking Through Moore’s second law of computing power


Auteurs :
Jim Carlson et Jerry Huck

Éditeur : Prentice Hall (USA), 198 pages, 30 dollars environ (23 euros).
Téléphonie IP
Réduire
Après le PABX, l’IP Centrex annonce-t-il la fin de l’IPBX ?
Par José Diz - Copyright L'Informaticien, tous droits réservés

Le standard téléphonique traditionnel cède la place à la téléphonie IP. Pourquoi remplacer un équipement par un autre quand une simple connexion à haut débit peut suffire ? Les mannes financières des ports téléphoniques expliquent-elles tout ? Nous avons interrogé à ce sujet quatre des principaux acteurs du marché de la convergence télécoms-informatique : Alcatel-Lucent, Cisco, 3Com et Avaya.

43335.jpg
«La demande de téléphonie sur IP dans les PME/PMI, à l’instar du Wi-Fi et d’Internet, émane souvent des utilisateurs disposant de ce type de service chez eux. C’est pourquoi elles réclament de plus en plus des offres de convergence voix/vidéo/données. Par ailleurs, leur consommation évolue vers une téléphonie d’usage et de services, avec une tarification forfaitaire mensuelle par utilisateur selon les fonctions attendues. Il leur faut donc des offres packagées »
, analyse Jean-Christophe Antoine, responsable de l’activité PME/PME chez Alcatel-Lucent.
« La migration vers IP s’impose face à l’intensité et à l’explosion des communications. Cette évolution apporte trois solutions aux préoccupations majeures des entreprises : la virtualisation géographique, l’homogénéité du parc informatique et téléphonique, et la réduction des coûts des télécommunications. Par ailleurs, elle favorise l’émergence de la mobilité. Avec le protocole IP, l’utilisateur dispose d’un profil unique pour tous ses besoins informatiques et télécom. Par exemple, il peut renvoyer les quatre derniers chiffres de son numéro vers un autre poste, et récupérer tous les attributs, fonctions et applications de son poste de travail sur cet autre équipement. Mieux encore, il lui suffit de saisir un identifiant et un mot de passe sur tout poste du réseau (même géographiquement distant) pour y transférer tout son poste de travail. Dernier raffinement, son profil peut adapter les fonctions et l’affichage en fonction du terminal choisi : PC, PDA, smartphone. Il peut alors accéder à toutes ses applications d’entreprise, dont la téléphonie », ajoute même Pierre Ardichvili, responsable marché sur les communications unifiées chez Cisco.


Adieu au PABX et à une manne financière ?

Cisco Pierre Ardichvili_VF.jpg
Pierre Ardichvili, responsable marché sur les communications unifiées chez Cisco.
Avec de telles promesses, on comprend mieux la disparition inéluctable des standards téléphoniques classiques, utilisant la technologie de téléphonie traditionnelle TDM (Time Division Multiplexing). « Les migrations et les renouvellements sont désormais au moins hybride. En effet, les PABX classiques – uniquement TDM – ne sont plus fabriqués. De plus, tous les développements concernant les communications s’effectuent autour d’IP », explique Gilles Cordesse, responsable technologies et stratégie Europe chez Avaya. « L’obligation de changer son PABX vers des équipements IP peut aussi être perçue comme une opportunité favorisant la convergence informatique et télécom sur le protocole IP, procurant de meilleurs services intégrés et une réduction des coûts à moyen terme », conseille Pierre Ardichvili.
Alors, on peut se demander pourquoi la téléphonie IP apporte autant d’ouverture, et pourquoi certains freinent des quatre fers face à son avènement. « Les équipements tout-TDM n’ont jamais été normalisés par les équipementiers, souhaitant surtout préserver leurs revenus récurrents grâce à leurs environnements propriétaires.
Les PABX traditionnels – uniquement TDM –, avec un câblage en étoile autour d’un boîtier, sont encore très présents dans les PME/PMI. Si ces équipements sont évolutifs, ils restent forcément limités en nombre d’utilisateurs. Plusieurs raisons peuvent amener les clients à en changer et à migrer vers la téléphonie IP : un plus grand nombre d’utilisateurs, une meilleure qualité que l’analogique, ou une meilleure interopérabilité entre équipements »
, souligne Bernard Mérindol, chez 3Com.


Une marche lente et de bons freins

Pour évoluer vers la téléphonie IP, plusieurs solutions se profilent : de la simple carte de téléphonie IP insérée dans le PABX, à la solution hybride IPBX, jusqu’à l’IP Centrex. Très inventifs et désireux de vendre leur matériel, les équipementiers minimisent tous l’importance croissante du Centrex IP permettant de ne posséder aucun équipement de téléphonie autre que les combinés téléphoniques. Pourtant, les opérateurs IP signent de plus en plus de contrats de plusieurs dizaines, voire centaines de postes. Et toutes les justifications sont bonnes pour « migrer en douceur » et inciter l’entreprise à s’équiper. « La migration des PABX vers la téléphonie IP est un fait acquis. Cependant, la migration doit rester souple. En effet, le cycle de renouvellement pour les PME/PMI est un long processus. Dans ce contexte, le choix de l’hybride autorise une évolution en douceur. D’autant que nos partenaires proposent des packs pour une meilleure maîtrise des coûts. L’IPBX permet une intégration simple avec les applications et avec l’infrastructure existante », avance Jean-Christophe Antoine.
Il est vrai que l’écosystème de la téléphonie souffre de cette évolution. « Pour les intégrateurs télécom, la fin de la maintenance des PABX locaux est inéluctable. Toutefois, ils peuvent apporter plus de services à valeur ajoutée avec la supervision générale du système informatique, incluant la téléphonie, » note Pierre Ardichvili.


L’hybride : passage obligé ou lobbying d’équipementiers ?

Sous prétexte de préserver les investissements, les équipementiers avancent les technologies mixtes. Un choix que tout le monde finit par juger peu intéressant, qui s’imposerait pourtant dans certaines situations. L’entreprise gagnerait alors à soumettre son projet à plusieurs prestataires et à ne pas viser forcément le moins cher à court terme. 
« Par exemple, pour répondre à un besoin de mobilité – PDA, smartphone, bureau virtuel à distance… –, une campagne de migration s’impose. Nos partenaires peuvent utiliser des offres incluant matériel, logiciel et services, avec notre offre Office OXO – ou Omni PCX Office. Cela permet de combiner téléphonie traditionnelle (TDM) et des solutions IP/SIP. Bien entendu, si le passage au tout IP est possible, autant tout migrer en IP. Le client bénéficiera alors de l’IP multisites, et de la convergence. En revanche, si l’infrastructure n’est pas adaptée à de l’IP, l’opération peut vite s’avérer lourde, longue et complexe », justifie Jean-Christophe Antoine (Alcatel-Lucent).


Données et téléphonie s’ignorent

schema1.jpg

Traditionnellement, les réseaux de données et téléphoniques sont séparés, avec des câblages spécifiques et différents, et des personnels aux compétences distinctes.



« Il convient de réaliser un audit pour répondre à quelques questions. La conversion totale vers IP est-elle possible ? Vaut-il mieux utiliser des équipements hybrides ou de type “ IP enable ” – une carte IP dans un PABX ? Quoi qu’il en soit, avec ces combinaisons l’entreprise ne bénéficiera pas de la totalité des avantages IP. De plus, les entreprises ayant de dix à quinze utilisateurs restent frileuses pour une migration totalement IP. Habituées à changer de PABX d’entrée de gamme tous les deux ou trois ans, elles préfèrent une solution hybride », constate Gilles Cordesse (Avaya).
Mais les limites apparaissent rapidement. « Une carte IP sur un PABX ne permet pas la gestion de la signalisation téléphonique, ni des différents services, comme peut le faire un gestionnaire d’appels IP », lance Pierre Ardichvili (Cisco).


Un premier pas vers la voix sur IP

schema2.jpg

L’entreprise peut conserver son infrastructure et ses équipements, leur complexité et la diversité de maintenance, tout en bénéficiant de la téléphonie IP pour regrouper ses télécommunications et négocier un volume. Elle pourra communiquer gratuitement avec tous ses bureaux distants – y compris à l’étranger – bénéficiant de la même architecture.



Avec ce type d’architecture hybride, on retrouve les mêmes limites en nombre d’utilisateurs et en évolutivité qu’avec un PABX, mais avec une ouverture à la téléphonie IP. Il faut reconnaître que cette combinaison élargit les possibilités, et permet surtout la connectivité intersites IP et donc la gratuité des communications téléphoniques entre immeubles géographiquement éloignés.


Passage à la téléphonie sur IP intégrale, ou presque

schema3.jpg

La migration du PABX vers l’IPBX permet une étroite collaboration avec les applications (CRM, bases de données, catalogues produits, etc.). Si l’entreprise ne souhaite pas migrer tous ses téléphones vers des postes IP, des adaptateurs spécifiques peuvent être installés.



« Néanmoins, la communication IP passe par la carte IP installée dans le PABX. Elle devient très vite un goulet d’étranglement. De plus, elle assure la transformation des communications IP pour les diriger vers les ports téléphoniques. Ce qui entraîne un coût bénéfique pour l’équipementier qui facture ses équipements en nombre de ports. L’hybride propose donc les plus mauvais aspects et limitations de la téléphonie traditionnelle – avec les coûts les plus chers –, et on ne bénéficie pas pleinement des fonctions IP à forte valeur ajoutée. Le client subit donc les contraintes des deux systèmes sans les avantages, il comprend alors rapidement les avantages de migrer directement à de l’IP », interpelle Bernard Mérindol (3Com). Et d’ajouter : « Bien entendu, les équipementiers, comme Aastra Matra Telecom ou Alcatel, poussent à étendre les PABX traditionnels, afin de conserver une part de marché conséquente sur un marché rémunérateur, et proposent leurs propres cartes IP propriétaires qui leur permettent même de vendre des ports supplémentaires. Pour utiliser toutes les fonctions de leurs PABX, ils vendent à leurs clients leurs propres combinés téléphoniques. Les technologies propriétaires leur permettent de conserver cette dépendance jusqu’au combiné ! Les techniciens démontrent que la cohabitation hybride TDM/IP fonctionne parfaitement lorsqu’un de leurs clients lance un projet pilote de 6 à 8 postes. Surprise, lorsque ce même client passe toute la filiale à l’IP, pour 30 à 40 postes : il faut alors un PABX de 40 ports ! En réalité, le tout IP s’impose, surtout si le client compare les coûts et les services possibles, la simplicité de maintenance et d’intégration… Autre problème avec les collectivités locales : elles choisissent la proposition la moins chère à un appel d’offres. En effet, le passage au tout IP se montre souvent plus cher. Aujourd’hui, le prix des combinés IP baisse avec la croissance de la demande, et les appels d’offres réclament parfois de la téléphonie IP dès l’origine de la rédaction. »


La solution IP Centrex

schema4.jpg

La solution IP Centrex (externalisation de l’IPBX) libère l’entreprise de l’acquisition et de l’entretien d’un autocommutateur. Avantage : des spécialistes veillent sur le bon fonctionnement du matériel et l’entreprise acquitte un abonnement mensuel par poste pour ce service – plus les communications, et autres services qu’elle souhaite activer.




L’IPBX pur IP et SIP annoncent un avenir radieux

Avaya_Gilles_Cordesse.jpg
Gilles Cordesse, responsable technologies et stratégie Europe chez Avaya.
Le tout IP ouvre les portes de l’interopérabilité et de la liberté de choix des solutions. Outre la simplicité de câblage unique informatique/téléphonie et de gestion d’une fonction devenue une application, le protocole SIP (Session Initiation Protocol) rend les équipements et applications de téléphonie IP totalement interopérables. Ainsi, quels que soient les éditeurs, la messagerie ou les annuaires compatibles SIP sont interopérables, sans aucun besoin d’importation. Une caractéristique qui permet une mise en concurrence saine favorisant un choix multiple pour le client. De même avec SIP, un environnement fourni par un opérateur saura dialoguer avec tout autre équipement ou environnement SIP. La téléphonie devient alors réellement une application parmi d’autres.
« Notre environnement VCX 3Com SIP fonctionne sous un simple serveur classique (architecture x86), et propose de multiples services comme la messagerie, le CTI, le serveur vocal interactif, etc. D’ailleurs, Microsoft avec Live Communication Server affirme même que le serveur SIP sera bientôt un serveur applicatif de base de l’entreprise. La fonction “ téléphone ” devient réellement une application multimédia (voix, chat, e-mail…) en intégrant aussi la mobilité. Néanmoins, l’IPBX représente un réellement intérêt lorsqu’il est totalement interopérable », affirme Bernard Mérindol (3Com).
Merindol-CI1.jpg
Bernard Mérindol (3Com).
« Avec SIP, il est aussi possible de vérifier la compatibilité entre équipements via la – ou le – SIP trunking. Dans la pratique, mieux vaut exiger des validations officielles. Par exemple, France Télécom proposera bientôt sa SIP trunking. Une validation de ce type pour un matériel permettra à l’utilisateur de savoir exactement le niveau de compatibilité avant l’achat. Car la validation indiquera précisément les fonctions compatibles ou non avec les équipements de l’opérateur : présentation du numéro ou du nom, indicateur de présence sur le réseau… »
, complète Gilles Cordesse (Avaya).


Des fonctions de sécurité enfin accessibles à tous

En pur IP, l’entreprise bénéficie d’un réseau unique avec un seul protocole de transport. « Cela ouvre de multiples possibilités, comme la centralisation de la fonction téléphonique, avec une éventuelle redondance. Par ailleurs, il suffit alors d’installer un simple switch sur les sites distants pour raccorder tous les téléphones via le réseau. La sécurité et la disponibilité peuvent, là aussi, être renforcées par la redondance des équipements sur plusieurs sites. L’entreprise pourra également déployer un plan d’équilibrage de charge. Enfin, divers types d’organisations peuvent être mis en place : par service, département, pays… Et ce, indépendamment de la localisation géographique », précise Pierre Ardichvili (Cisco).
Pour bénéficier de tous ces avantages, il faudra néanmoins veiller à ce que les équipementiers respectent réellement SIP et ce, jusqu’au cœur de leurs solutions. Or, cela n’est pas toujours le cas. « Pour favoriser l’avènement de la téléphonie IP et une réelle implémentation de SIP, seuls les clients peuvent faire bouger les choses, et contrecarrer certains grands acteurs qui freinent des quatre fers. Il leur suffit de choisir les solutions des promoteurs du full IP », propose Bernard Mérindol (3Com).


Pourquoi s’encombrer de la gestion d’un équipement de plus ?

JCAntoine_1.jpg
Jean-Christophe Antoine, responsable de l’activité PME/PME chez Alcatel-Lucent.
Pour un métier qui n’est pas le sien, il convient de se demander pourquoi l’entreprise devrait s’encombrer d’un matériel de standard téléphonique. Pourquoi ne creuserait-elle pas un puits pour se fournir en eau potable ?
« Sans compétence interne, l’outsourcing ou l’hébergement s’imposent, selon que l’entreprise souhaite ou non posséder son propre matériel. En revanche, avec les équipements d’un prestataire ou opérateur, elle perd la maîtrise des mises à jour, de la flexibilité et l’évolutivité. C’est pourquoi le choix de l’hébergement repose sur une relation de confiance plus importante avec son prestataire. Cette confiance suffit-elle si la téléphonie est une activité vitale pour l’activité de l’entreprise ? Mais lorsqu’elle dispose de compétence en interne, l’entreprise pourra choisir de conserver les équipements en interne et de les gérer, afin de garder la liberté d’intégrer ou non des évolutions technologiques et de déployer ou non des mises à jour. En mode hébergé, l’entreprise reste aussi maîtresse de ses évolutions et de son environnement technologique », détaille Gilles Cordesse (Avaya).
Les constructeurs ont bâti des offres managées avec leurs prestataires où les équipements sont installés chez le client, mais implémentés à la demande et à distance. « Par ailleurs, de nombreux services à valeur ajoutée sont proposés comme des boîtes aux lettres électroniques ou des fonctions de mobilité complète de téléphonie. Chez nous, il est même possible de les combiner avec de la téléphonie traditionnelle », souligne Jean-Christophe Antoine (Alcatel-Lucent).
Avec l’externalisation de ses équipements de téléphonie chez un opérateur, le client profite d’une installation avec des secours électriques, de la haute disponibilité, et autres apports en sécurité… Toutefois, cela reste difficile à mettre en place ou à faire évoluer. « L’externalisation complète nécessite la rédaction de contrats complexes et l’installation de multiples liens de télécommunications. Autant de mesures difficiles à assumer pour des PME/PMI qui disposent rarement de compétences juridiques suffisantes. Par exemple, la garantie de temps de rétablissement (GTR) de 4 heures engendre de multiples problèmes, comme les prestataires qui préfèrent payer les indemnités que d’envoyer du personnel dans les temps prédéfinis. Et le temps perdu se transforme très vite en perte de chiffre d’affaires. Une modeste PME/PMI aura peu de poids sur l’activité d’un opérateur… », prévient Bernard Mérindol (3Com).


Le Centrex IP incarne-t-il la panacée ?

L’approche « prix par utilisateur » permet des coûts fixes et étalés de fonctionnement plutôt que des coûts d’investissement, incluant prestation, équipement, et consommation. « Ce mode de tarification existait déjà avec des offres traditionnelles et n’est pas l’exclusivité du Centrex IP. De nombreux partenaires d’Alcatel-Lucent proposent depuis des années des forfaits de ce type aux PME/PMI », commente Jean-Christophe Antoine (Alcatel-Lucent.)
« Les appels d’offres IP Centrex se multiplient. Ces offres présentent l’avantage d’une dépense maîtrisée et d’un paiement selon les fonctions réellement utilisées par chaque utilisateur. Inconvénient : la dépense est plus onéreuse que l’achat après cinq ans », prévient Gilles Cordesse, chez Avaya. « Ce marché représente moins de 1 % de la téléphonie d’entreprise », tient à souligner Jean-Christophe Antoine.
Si la plupart des équipementiers confinent le Centrex IP aux sites de dix utilisateurs au maximum, les opérateurs IP signent eux des contrats bien plus conséquents. « L’IP Centrex proposant l’accès à une infrastructure d’opérateur contre un forfait mensuel par utilisateur, il convient parfaitement à de petits sites, de type réseau d’agences, qui peuvent rapidement totaliser des dizaines d’utilisateurs. En fait, tout dépend de la réponse à la question : qu’êtes-vous prêts à confier à votre opérateur ? Services sophistiqués, travail collaboratif multimédia, conférences audio ou vidéo, chat, annuaire d’entreprise, messagerie unifiée… Techniquement, tout est possible, et les freins principaux sont généralement psychologiques », reconnaît même Pierre Ardichvili (Cisco).
La suspicion la plus évoquée reste la difficulté à faire évoluer la téléphonie IP proposée par l’opérateur vers des versions plus récentes, ou la difficulté de changer d’équipement ou de rester limité au matériel utilisé par le prestataire. C’est oublié un peu vite que la normalisation avance à grands pas, et que généralement les nouvelles versions apportent plus de confort au client et donc plus de services monnayables !
« L’IP Centrex propose des fonctions très évoluées. Or, pour proposer la même chose, une entreprise devrait investir sur des serveurs et des logiciels onéreux pour, souvent, ne déployer ses services qu’à quelques utilisateurs. Par exemple, avec “ l’extension to cellular ”, la sonnerie retentit sur le fixe et le mobile de l’utilisateur. Le premier combiné qui décroche prend l’appel et la sonnerie cesse sur le second. Ce n’est pas un transfert. Si personne ne répond, la messagerie professionnelle du fixe se déclenche automatiquement.  Autre exemple : la lecture vocale des e-mails pour consulter sa messagerie, qui peut aussi contenir des messages téléphoniques. De plus, des instructions vocales ou par touche simplifient la gestion de ces messages. Et le déploiement de ces services peut se révéler utile pour certains utilisateurs. Or, si l’entreprise possède son propre équipement – chez elle ou hébergé –, elle devra acquérir les logiciels serveur fournissant ces services et payer toutes les licences nécessaires.  De plus, des fonctions ne sont utiles que pour certains numéros, comme le serveur vocal interactif pour la hotline », remarque enfin Gilles Cordesse, chez Avaya.


Lexique

PABX (Private Automatic Branch Exchange, central téléphonique privé) : commutateur téléphonique d’entreprise gérant les communications entre plusieurs postes et établissant les communications sur le réseau téléphonique public.
IPBX (Internet Protocol Branch Exchange) : combinaison d’« IP » et « PABX », l’IPBX assure les liaisons entre les technologies TDM et IP et assume la commutation des appels téléphoniques et leurs autorisations, il peut servir aussi de routeur ou de serveur DHCP.
SIP (Session Initiation Protocol) : protocole élaboré par l’IETF (Internet Engineering Task Force) pour standardiser la téléphonie sur IP, et permettre aux équipements et téléphones de divers fabricants d’interagir. Alternative aux protocoles propriétaires des équipementiers télécom, ce protocole est utilisé pour acheminer les demandes de connexion et services associés (reroutage d’appels, conférences audio…). Ses messages au format texte sont véhiculés sur réseau TCP/IP via le système d’adressage de DNS. Avec SIP, les numéros peuvent être remplacés par des adresses Internet.
TDM (Time Division Multiplexing ou multiplexage temporal) : méthode de téléphonie traditionnelle appelée à être remplacée par la ToIP. Méthode permettant de mélanger plusieurs signaux sur un lien avec une émission segmentée selon le rythme d’une horloge.
Centrex IP (Central Exchange IP) : le service Centrex IP repose sur un IPBX hébergé et mutualisé chez un opérateur de VoIP. Les téléphones des utilisateurs de l’entreprise sont simplement connectés sur son réseau et accèdent au Centrex via Internet. Fourni sous forme de service ASP, le Centrex IP supprime les abonnements téléphoniques, le standard téléphonique et réduit le coût des appels téléphoniques (abonnement mensuel par poste et prix de communication optimisés).
Équipement hybride TDM/IP : équipement permettant de gérer à la fois la téléphonie traditionnelle (TDM) et la téléphonie IP. Sur un PABX-IP ou « IP Enable », une carte IP est ajoutée au PABX. Un IPBX peut aussi être connecté via une carte spécifique à un PABX.
SIP Trunking : le protocole SIP Trunking permet d’échanger, sur un lien IP, des données des services téléphoniques en lien direct entre les IPBX et les équipements des réseaux d’opérateurs.

Entreprises
Réduire
Entreprises : Quelles économies attendre de la téléphonie IP ?
Par Olivier Pavie - Copyright L'Informaticien, tous droits réservés

La réduction des coûts télécom se trouve directement liée à la convergence réseau et télécom. Les économies se glissent à tous les niveaux, depuis le déploiement et l’optimisation d’un seul réseau jusqu’à l’administration centralisée multi-site. Quantitatif et qualitatif à l’épreuve des coûts.

Parce qu’aucun répit n’est accordé aux entreprises pour avoir le temps et les moyens financiers de s’adapter socio-économiquement à une révolution technologique, les économies peuvent souvent être les signes avant-coureurs de réductions d’effectifs. Avec une bonne gestion globale de l’avancée technologique, de la formation du personnel et des besoins sans cesse croissants des partenaires et clients, cela ne devrait pas arriver… Voici, dans ce dossier, les moyens de se poser quelques instants et de profiter des perspectives d’économies pour gagner en temps d’analyse, de compétitivité et de productivité.


De 15 à 20 %, pas moins !

Imaginer que l’on puisse économiser quasiment du jour au lendemain, sans remise en cause profonde de ses équipements, plus de 15 % en global sur ses coûts télécom n’est pas une utopie. C’est une réalité quotidienne pour de nombreuses entreprises, quelle que soit leur taille ou presque, et c’est ce qu’explique sans ambages Bertrand Cogard, directeur commercial d’Ipnotic Telecom, en mentionnant des économies allant jusqu’à 30 % sur les télécommunications vers mobiles avec les tarifs auxquels peuvent aujourd’hui être achetées les minutes de communication de façon mutualisée.
En fin de compte, exceptée la discipline qui consiste à préférer demander son numéro de téléphone fixe à chaque interlocuteur plutôt que le numéro de mobile, c’est la totale convergence réseau informatique et télécom qui offre les économies les plus importantes à court, moyen et long termes. Ceci en incluant à la fois la notion de téléphonie et la notion de trafic de données. L’optimisation étant ensuite dans la recherche de la meilleure adaptation possible de l’infrastructure réseau et du fournisseur des services voix et données pour le trafic extra-entreprise.


Jean-Bernard Sers et Gérard Bouzou de Spie Communications, détaillent les économies

SpieJBSetGB_01.jpg
Gérard Bouzou, directeur marketing et communication, développement et stratégie de Spie Communications, ouvre le dialogue sur les nouveaux usages de la téléphonie et des réseaux ; de ceux qui poussent à cette convergence totale et transparente. Pour lui, nous en sommes à la seconde génération de l’IP. De l’IP d’infrastructure, nous sommes passés à l’IP de l’usage pour améliorer la productivité, assurer des services voix et données en mobilité, assurer le travail collaboratif, diminuer les déplacements grâce à la visioconférence, etc. Les économies portent sur ces points, mais aussi sur l’émergence de nouveaux standards, comme le SIP, qui apportent à la téléphonie, et à la télécommunication en général, la notion de gestion de présence et de disponibilité de l’interlocuteur n’importe où par n’importe quel moyen. Sur le plan des économies plus quantitatives, c’est Jean-Bernard Sers, responsable Marketing Opérateurs et Nouveaux Services qui entre dans les détails des économies directes en matière de coûts télécom. Il indique que la première réduction de coûts, c’est le dégroupage total avec une réduction immédiatement lisible de 20 à 40 % en fonction de la typologie des trafics, des forfaits choisis, des paliers, en fonction des tranches horaires… Il y a des économies sur les intercommunications gratuites par VPN entre sites distants ; les appels sortants depuis l’intégralité des sites pouvant être gérés par une administration centralisée et éventuellement externalisées. Cette externalisation pouvant permettre d’améliorer les coûts télécom par mutualisation, tout comme permettant de réduire les coûts cachés que représentent les personnels compétents et les formations induites. En tout état de cause, c’est la capillarité la plus grande du nombre de sites qui réduit le plus les coûts globaux.




Abonnements et autres coûts cachés

Où se situent les coûts des télécoms ? Au commencement, une entreprise pensait au nombre de postes téléphoniques dont elle avait besoin pour équiper ses locaux et l’ensemble du personnel. De là s’établissait alors la réflexion sur le câblage des locaux en fils et prises téléphoniques reliés à un standard via un PABX. La même chose pour l’équipement informatique. Il fallait donc tout compter en double en termes de câblage. Il fallait ensuite penser trafic du réseau avec l’extérieur et nombre d’abonnements téléphoniques en fonction du nombre de lignes dont on souhaitait disposer pour autoriser des appels simultanés entrants et sortants dans l’entreprise. Sans compter les frais inhérents aux trafics de données entrant et sortant, dont il fallait également tenir compte de manière totalement séparée. Si les interlocuteurs internes étaient différents pour la téléphonie et les données, au final, c’étaient bien les opérateurs qui collectaient dans leurs propres réseaux les demandes à la fois voix et données.


tablo1.jpg



tablo2.jpg


Plus il y avait de sites à relier les uns aux autres, plus les opérations pouvaient coûter cher. En plus des interconnexions réseau voix extérieures traitées, ou sous-traitées par les opérateurs, l’administration de chaque PABX et les interventions sur sites pouvaient engendrer des coûts réguliers complémentaires pour vérifier telle ou telle connexion, tel ou tel terminal, ajouter une ligne, une carte dans un PABX, coordonner les interventions extérieures, etc.
Avec la convergence informatique télécom, la principale question à se poser est de se demander comment profiter au mieux, justement, de cette convergence.


Penser réseau

Tout n’est que réseau. Si le réseau est bon pour l’informatique, il est prêt à accueillir la téléphonie et à mettre à la trappe les idées reçues et anciens combinés. La réduction des coûts télécom est une remise en cause de l’infrastructure qui consiste désormais à penser la voix comme de la donnée, ce dont il s’agit de toute façon depuis déjà de nombreuses années, au moins chez les opérateurs. À moins de trouver une solution d’adaptabilité du réseau téléphonique existant à une structure sous forme d’IPBX avec une interface de liaison vers le réseau téléphonique classique, l’idée de faire appel à son équipementier reste une alternative plus qu’honorable. La mise en concurrence s’impose évidemment avec les solutions entièrement informatiques qui viennent remplacer les postes classiques. Et là où la concurrence peut être rude, c’est lorsque l’entreprise est fortement informatisée. Avec l’IP, quoi de plus simple que de brancher un nouveau téléphone là où il existe un réseau informatique câblé ou un point d’accès Wi-Fi ? Cela est d’autant plus aisé quand le réseau exploite le POE (Power Over Ethernet). Cette technologie est capable d’autoalimenter un poste téléphonique IP connecté en Ethernet comme le faisait une prise de téléphone raccordée à un PABX : plus de différence entre les réseaux.


Jean-Luc Kauss, chef produits Voix Entreprises chez Nortel
Évangéliste de la ToIP chez Nortel, Jean-Luc Kauss scinde clairement les gains quantitatifs et qualitatifs, allant parfois jusqu’à indiquer qu’il peut ne pas y avoir de gain quantitatif. Toutefois, pour les moyens et grands comptes, les gains quantitatifs qui s’extraient facilement concernent ceux sur l’infrastructure et sur les frais de gestion. Encore qu’il faille, là aussi, être pragmatique : si le réseau ne comporte pas de QoS (ou de « qualité de service » au sens plus général) ou d’optimisation de flux ni de POE, les nouveaux coûts induits pour leur mise en œuvre sont à déduire des gains directs. Du fait de la totale convergence de l’infrastructure IP pour la voix et les données, ce qui améliore le réseau profite à tous les usages.
En résumé, Jean-Luc Kauss indique que le gain le plus rapide en termes d’infrastructure concerne les topologies multisites, car il n’y a pas besoin de PBX partout, l’intelligence est centralisée et le management très économique. Il y a convergence des équipes, convergence des câblages. Sur le plan qualitatif, les gains sont très nombreux et peuvent permettre un ROI de moins de douze mois, notamment grâce aux applications d’audio conférence, de Web conférence et de vidéo conférence qui améliorent la productivité et diminuent largement les coûts en matière de déplacements. Dans l’amélioration de la productivité, Jean-Luc Kauss mentionne aussi les gains réalisés grâce à la communication unifiée qui offre notamment la gestion de présence, fruit de l’alliance Microsoft/Nortel : un seul client logiciel de Microsoft sert à assurer toute l’intercommunication des applicatifs voix/données.




Des économies, jusqu’à quel point ?

Ipnotic Telecom, déjà mentionné précédemment, nous a commenté le tableau présenté en encadré. Les économies consistent à passer une société moyenne d’un environnement de téléphonie et informatique classique en un réseau unique et convergent qui utilise à 100 % la téléphonie sur IP et en y couplant les usages réseau classiques. Les économies sont significatives, même si nous pouvons dire qu’il ne s’agit ici que « d’une base de négociation », ou presque. Pour Jean-Luc Kauss, chef produits Voix Entreprises chez Nortel, il faut distinguer les gains quantitatifs basés sur un ROI calculé de manière assez précise, et les gains qualitatifs plus difficilement chiffrables, mais pouvant être au moins autant significatifs, si ce n’est plus : le travail collaboratif lié au passage au « tout réseau » améliore la productivité (voir encadré). Chez Spie Communications (voir encadré), Jean-Bernard Sers et Gérard Bouzou arrivent à répartir le poids des économies sur quatre postes : 10 % sur les numéros spéciaux, 30 % sur le prix des abonnements, 50 % sur la mutualisation de la consommation liée à l’usage de l’IP, et 10 % sur les réductions liées aux économies sur les évolutions. Mais pour situer jusqu’où peuvent réellement aller se nicher ou se jucher les économies, nous avons également interrogé des intervenants dans la chaîne même du réseau informatique en tant que tel.

Le plus surprenant est de constater que l’économie peut aller jusque dans les fonctions de surveillance de la gestion des données dans le réseau. Éric Fries, P-DG de la société Accellent, spécialisée dans l’analyse en temps réel des flux dans les réseaux, a pu nous communiquer des données concernant un de ses clients qui dispose d’un réseau de 3 500 agences bancaires : deux années homme par an d’économisées avec des usages très précis (voir encadré).


Optimisation de trafic : Éric Fries a le fluide
Fondateur et P-DG d’Accellent, Éric Fries fait dans le cousu main de l’analyse de flux avec des sondes applicatives très sophistiquées, embarquées dans des appliances capables d’atteindre la gestion de l’analyse simultanée de centaines de milliers de flux. Interrogé dans le cadre de ce dossier, il n’a pas voulu parler de pourcentages de gains, mais plutôt de gains « métier » et « temps » liés à l’usage de ses équipements dans le cadre des besoins chez un de ses clients. Ce qui est particulièrement intéressant dans cette approche, c’est de constater que de tels outils d’analyse sont capables de permettre d’estimer un gain en productivité lié à des choix d’amélioration du trafic de flux de données issus de certains applicatifs ; ici, la ToIP dans une infrastructure donnée. Dans le cas présent, Éric Fries communique sur le fait que la répartition des gains peut être décomposée de la façon suivante :
• une demie année homme est gagnée grâce à la surveillance des temps de réponse et de l’activité des utilisateurs de 3 500 agences bancaires distantes avec son logiciel phare 5view Applications ;
• une demie année homme est gagnée dans une automatisation de la facturation de la consommation de trafic applicatif intra-service en entreprise ;
• une année complète est gagnée sur l’automatisation de la surveillance des appels ToIP couplés à un logiciel de CTI (Couplage Téléphonie-Informatique) sur dix points de mesure stratégiques.


NGN
Réduire
RÉSEAUX DE NOUVELLE GÉNÉRATION
Les promesses de l’IMS
Par Olivier Pavie - Copyright L'Informaticien, tous droits réservés

Les NGN ou New Generation Networks se veulent être un concept d’architecture réseau par paquets dans un environnement d’infrastructure ouverte de réseaux convergents. L’ambition de leurs promoteurs est d’améliorer et de développer des services innovants et universels ; l’IMS, ou IP Multimedia Subsystem, en est une illustration commerciale opérationnelle appliquée à un réseau public.

Les nouvelles technologies apportent leur lot d’idées, le marché les structure. Si Dutronc chantait qu’il était impossible de s’asseoir tant il y avait de cactus, il est encore plus impossible de se tourner et se retourner dans tous les sens sans rencontrer un réseau. Le challenge est aujourd’hui d’imaginer une liaison intelligente d’interconnexion des réseaux qui reprenne le « meilleur des mondes » numériques, en évitant en quelque sorte le cactus numérique. Le but suprême étant d’une certaine façon de voir émerger la meilleure des technologies. Un dispositif qui finisse par unifier le monde en paquets mais pas forcément sur IP.
Tout est encore à faire. À tel point qu’en ce qui concerne les ondes, par exemple, lors d’une réunion européenne à l’ETSI, au mois d’octobre, un intervenant a sérieusement évoqué l’étude en cours qui consiste à imaginer de rendre dynamique l’affectation de toute fréquence sous 5 GHz en fonction des besoins de n’importe quel service et selon la disponibilité des gammes de fréquences en un lieu dit et à l’instant T. Autrement dit, si vous ajoutez à cela la gestion par paquets, le WiMax est déjà un dinosaure. Ceci a d’autres conséquences, notamment sur les réglementations en vigueur mais c’est aussi une autre histoire…

NGN-IMS-02.jpg
Les différents organismes qui participent à la normalisation de l’interopérabilité entre couches. (Source: Sun)


Un Forum sur les NGN à l’OCDE
Le 3 octobre 2006, l’OCDE (Organisation de Coopération et de Développement Économiques) avait organisée un forum de prévisibilité sur les NGN qui s’est déroulé à Budapest, en Hongrie. Ce forum animé par des personnalités et industriels avait pour but d’analyser les enjeux techniques, et socio-économiques des NGN. Les informations relatives à cet événement sont disponibles à l’adresse http://www.oecd.org/document/54/0,2340,fr_2649_34225_37526006_1_1_1_1,00.html.




Carré d’As avec l’IMS

Tout cela pour dire que si l’on en revient aux réseaux de nouvelle génération, le but est de développer un cerveau universel d’interconnexion intelligente inter-services et inter-infrastructures existantes dans le but d’acheminer n’importe quelle information par tous les moyens possibles sans se soucier du terminal et du mode d’accès. Le seul point commun à l’ensemble de l’architecture étant que l’information soit transportée par paquets comme le fait l’IP aujourd’hui.
L’exemple qui sied le plus à une convergence universelle des réseaux, c’est l’IMS ou "IP Multimedia Subsystems". Il s’agit en effet de la meilleure illustration de ce qui est en train de se répandre comme une traînée de poudre au cœur des infrastructures des opérateurs de tous bords et pas seulement chez les opérateurs télécom et opérateurs mobiles classiques, mais aussi du côté de ceux dont le métier était encore hier d’être de « simples » ISP.
L’IMS, considéré par certains comme étant déjà parfaitement normalisé, représente l’avancée la plus importante en ce qui concerne la convergence de l’accès, du transport, du contrôle et des services, en plus du roaming. En cela, l’IMS se greffe donc sur tous les types de réseaux qui savent gérer de l’IP, quel que soit leur mode d’utilisation et leur modèle économique actuel. L’une des particularités d’IMS est en outre de séparer le contrôle du transport. On peut parler de greffe, car l’IMS vient au-dessus de l’infrastructure existante en se chargeant « d’acclimater » les services déjà opérationnels, en leur procurant tel ou tel complément via des connecteurs (plugs). De nouveaux services dont les spécifications peuvent se fondre dans l’ensemble des spécifications d’IMS peuvent être développés. L’avantage de l’IMS est d’être totalement ouvert. L’initiation de sessions se base en l’occurrence sur SIP, dont le succès ne se dément pas.


L’IMS, une norme ?
L’IMS est en quelque sorte normalisé dans le sens où chacun des liens entre couches applicatives est étudié par les organismes qui ont participé à la normalisation de la couche en question. C’est le groupement 3GPP qui était à l’origine de l’initiative IMS et c’est à lui que revient l’initiative de l’évolution de l’UMTS dans le cadre de l’IMS.
D’un autre côté, l’ETSI, qui fait partie du 3GPP, est aussi de la partie pour valider la version définitive d’IMS, du fait de son implication dans la norme TISPAN dont les caractéristiques regroupent toutes les spécifications relatives à la définition même de NGN. Notons que TISPAN intègre notamment une normalisation complète de la VoIP.
Rappelons aussi que l’ETSI est à l’origine même de la normalisation GSM. L’exemple de la figure ci-contre illustre bien la manière dont l’IMS se veut être la synthèse multinorme. Là où il est aujourd’hui difficile de comprendre qu’il existe une norme IMS, c’est quand on sait que l’intégration des normalisations de dialogues entre couches n’est pas encore totalement opérationnelle. Il y a donc en réalité une normalisation de l’IMS qui intègre telle et telle couche dont le schéma fonctionnel est garanti et dans laquelle viennent se greffer des services indispensables qui n’ont pas encore une version définitive d’interopérabilité. D’après les renseignements récoltés, c’est la version 7 de l’IMS vers la fin 2008 qui intègrera une normalisation globale des interopérabilités normalisées de l’ensemble des couches nécessaires. On en est actuellement à la version 4, même si des protagonistes comme Nokia ont aujourd’hui un équipement Nokia IMS 2.0…




La VoIP est à l'origine des NGN

La VoIP est en grande partie à l’origine de la réflexion sur les « NGN ». Selon Frost et Sullivan, 75 % du trafic mondial Voix sera réalisé en VoIP en 2007. En témoigne le standard TISPAN (Telecoms & Internet converged Services & Protocols for Advanced Networks) de l’ETSI – lire l’encadré ci-dessus.
Pour les opérateurs télécom, c’est aussi ce qui a conduit à réfléchir à la pertinence d’un nouveau réseau, et donc à l’IMS, qui se charge également d’inclure une notion économique à l’équation. Les problématiques de la VoIP n’en sont pas vraiment, tant qu’elles restent dans des réseaux homogènes, ou tout du moins parfaitement maîtrisés en termes de trafic. Ce n’est pas le cas d’un réseau public comme Internet ou d’un réseau de téléphonie mobile qui utilise de la liaison Internet. Le pire arrive lorsque la vidéo fait son apparition ; les problématiques de l’IPTV sont les mêmes sur réseaux fixes et mobiles. L’intégration de la vidéo dans l’IMS sous forme de canaux de télévision, tout comme la possibilité de réaliser des services de VOD, sont au cœur de la problématique, même s’il est naturellement plus facile de transporter de la VOD que des flux TV de type broadcast..
Il n’en demeure pas moins que la maîtrise de la qualité de service passe par une maîtrise de bout en bout du réseau : le choix de France Télécom d’avoir uni Wanadoo et Orange n’est qu’une simple mise en évidence de la complémentarité des services et de la nécessité de maîtriser tous les maillons de la chaîne : avec un mobile Orange et un abonnement Orange, le multimédia devrait passer au vert.
Pour compléter cela, selon un document émanent de France Télécom (http://www-.orangepartner.com/site/frfr/developper/
initiatives_standards/ims/p_imsi.jsp
), l’IMS fait partie de la stratégie de l’opérateur historique. Dans un autre document (http://www.francetelecom.com/fr/groupe/rd/une/thematique/dossier_mois/ddm200602/att00037417/ddm200602.pdf) mention est faite de la date de commercialisation en 2007 : les Livebox devraient faire partie des équipements promis à être le plus rapidement mis à jour avec cette technologie. Dans ce même document, France Télécom maintient en revanche qu’il utilisera encore la technologie classique TDM pour les communications vocales en 2007, estimant d’une part que l’IP n’est pas encore assez optimisée pour ce traitement, et d’autre part, que ses équipements récents qui utilisent cette technologie ne sont pas encore amortis. En tout état de cause, bien intégré, l’IMS devrait, d’ici peu, aller jusqu’à gérer un bureau mobile en visioconférence et en travail collaboratif avec différents interlocuteurs sur d’autres bureaux mobiles ou fixes.


« L’IMS est idéal pour le développeur »

Bertrand Lalanne, Marketing Product Manager chez Ericsson
« Ericsson se positionne comme fournisseur de cœur de réseau en convergence fixe et mobile basée sur l’IMS. Dans l’offre Ericsson, l’IMS se décline en trois modules.
• La Media Gateway (-MG dans le schéma) qui assure le routage et le dispatching inter-réseaux.
• Le contrôleur CSCF chargé de gérer l’authentification, la session, le QoS et les inter-fonctionnalités entre modules.
• Le HSS (Home Subscriber Server), base de données utilisateurs, qui assure la gestion “inter-session” issue de l’informatique en Radius IP, et des télécommunications via le dispositif HLR (Home Location Registers). La grande force de l’IMS est son ouverture totale à tous les standards IP. L’IMS assure son interconnexion ainsi que son interopérabilité entre tous les réseaux d’accès, tout en gérant les sessions, la sécurisation et la qualité de service. Pour le développeur, l’IMS s’avère idéal dans le sens où il fournit des « plugs » pour que les services demandés soient implémentés à la fois d’une façon simple, mais aussi totalement standard avec ce que les programmeurs d’applications Web ont l’habitude de traiter. L’IMS est facilement déployé aujourd’hui chez les opérateurs télécoms mobiles et fixes, mais ce sont pour l’instant les équipements fixes raccordés en haut-débit qui peuvent le plus en profiter : le parc installé de mobiles “IMS Ready” n’est pas encore assez important. Toutefois, tous les Smartphones peuvent déjà se voir implanter des applicatifs IMS. »




NGN-IMS-01.jpg
Les objectifs de l'IMS : une qualité de service pour toutes les applications et toutes les plates-formes. (Source: Sun)



Les NGN, jusqu’où ?

NGN = haut débit + sécurité + fiabilité + mobilité + services : il n’y a pas vraiment de limites à l’imagination des services qui pourront être rendus si l’on arrive à associer tous les réseaux dans un tel but qualitatif. Tout reste cependant à faire car un haut débit fiable ce n’est pas l’ADSL qui peut vraiment le laisser envisager, ni le Wi-Fi dans l’état actuel des choses. Quant à la sécurité, il va falloir trouver des parades efficaces à l’ensemble des malwares qui nous polluent de plus en plus. Le WiMax et la fibre optique peuvent certainement contribuer à être les prochains socles des infrastructures mieux pensées pour les besoins d’aujourd’hui, mais ils vont à l’encontre des intérêts économiques de la plupart des opérateurs qui doivent amortir leurs équipements, parfois très onéreux, comme c’est le cas notamment dans la téléphonie mobile 3G – coût auquel il faut ajouter la dépense astronomique allouée aux licences.


Arcep et CSA, même combat

Pour finir, toute cette convergence numérique s’illustre déjà sociologiquement. Le rapport d’information de la Délégation à l’Aménagement et au Développement durable du Territoire communiqué à l’Assemblée nationale à la fin de 2006 préconise de regrouper en une seule entité le CSA, l’Arcep et l’Agence Nationale des Fréquences (ANFR). La convergence des réseaux risque certainement de conduire à une divergence d’intérêts.
Bonnes Feuilles
Réduire
Haro sur les failles de sécurité !

9782100504763.jpg
Chasser les failles de sécurité
Tom Gallagher, Bryan Jeffries et Lawrence Landauer
Microsoft Press, 599 pages
Tous spécialistes de la sécurité chez Microsoft, les trois auteurs de l’ouvrage « Chasser les failles de sécurité » nous proposent d’apprendre à penser comme un pirate informatique et d’identifier les problèmes de sécurité potentiels des programmes. De l’identification des points d’entrée à risque à la redirection d’attaque, tous les trucs des pro pour la sécurité.

Devenir un serveur malveillant

Ce chapitre montre comment les agresseurs peuvent envoyer des réponses malveillantes aux applications clientes et décrit des moyens plus simples que les testeurs peuvent utiliser pour envoyer des réponses malveillantes aux applications clientes. Il évoque aussi les types courants de réponses malveillantes et propose des conseils sur le test des clients par rapport aux réponses malveillantes.
Les scénarios de réponses malveillantes sont réels. Beaucoup impliquent des facteurs externes au contrôle de l’application cliente. Quand un facteur externe au contrôle du client est mis en danger, il importe que l’application cliente empêche des mises en danger supplémentaires. Voici quelques moyens dont dispose une application cliente pour se connecter à un serveur malveillant ou recevoir des réponses malveillantes d’un serveur :
• L’application cliente se connecte sciemment à un serveur arbitraire.
• L’agresseur effectue une attaque de type intercepteur.
• L’agresseur contrôle ou infecte le DNS (Domain Name System).
• Le socket serveur est piraté.
Les sections suivantes traitent de ces différents scénarios.


Réception par les clients des réponses serveur malveillantes

L’application cliente se connecte sciemment à un serveur arbitraire.
La plupart des applications clientes sont conçues de telle sorte que l’ordinateur client ne puisse pas être endommagé quand il se connecte à des serveurs arbitraires.
Par exemple, un navigateur Web ne doit pas être endommagé quand il charge les données depuis un serveur, même en cas de présence de données malveillantes.
Cependant, ce n’est pas toujours le cas. Si un client adresse des demandes à un serveur malveillant, les réponses du serveur peuvent être conçues de façon à exploiter les bogues du client.
Souvent, le client de la cible n’a pas besoin de spécifier directement le serveur malveillant auquel se connecter. Un agresseur peut utiliser diverses méthodes pour duper un client de la victime et l’amener à se connecter à des serveurs arbitraires.
Par exemple, un lien hypertexte de gestionnaire de protocole tel que ftp://ftp.example.com pourrait être utilisé pour forcer un client FTP à se connecter à ftp.example.com en cas de clic sur le lien hypertexte. JavaScript peut aussi être utilisé pour automatiser l’activation d’un lien hypertexte et faire en sorte que la victime n’ait même pas besoin de cliquer sur le lien. Autre exemple, l’utilisation des contrôles ActiveX pour forcer un client à se connecter à un serveur choisi par l’agresseur. Par exemple, Adobe Acrobat, RealNetwork RealPlayer et Microsoft Windows Media
Player autorisent tous les appelants de leurs contrôles à spécifier le serveur auquel le client doit se connecter sans intervention de l’utilisateur. Il n’est pas difficile d’amener une cible à se connecter à un serveur malveillant quand de telles fonctionnalités existent.


L’agresseur effectue une attaque de type intercepteur

Certains clients n’autorisent pas que le serveur soit spécifié. Ces applications généralement se connectent seulement à un ensemble de serveurs approuvés prédéfinis. Ni l’utilisateur ni l’agresseur ne peuvent alors spécifier le nom d’un autre serveur. Cependant, un agresseur peut être capable d’intercepter la demande réseau adressée au serveur et de répondre avec des données malveillantes ou d’intercepter la réponse du serveur légitime et de la modifier. Cette attaque est appelée attaque de type intercepteur.


Quand les utilisateurs se connectent à des réseaux non approuvés, des attaques telles que la précédente sont faciles à repousser. Quel degré de sécurité offre votre ordinateur quand vous vous connectez depuis un café ? Êtes-vous certain de vous connecter au réseau du café et non pas à un point d’accès se faisant passer pour tel ? Faites-vous réellement confiance aux autres utilisateurs du réseau ?



L’agresseur contrôle ou infecte le DNS (Domain Name System)

Dans les situations où un client se connecte à un serveur par son nom, un serveur DNS permet d’examiner l’adresse IP du serveur. Si les informations DNS sont contrôlées par un agresseur, la procédure de recherche peut retourner l’adresse IP du serveur de l’agresseur au lieu de celle du serveur légitime, ce qui se traduit par le fait que le client est dirigé vers l’ordinateur de l’agresseur. Pour plus d’informations, voir http://www.lurhq.com/dnscache.pdf.


De même qu’un cache DNS, le cache d’un proxy Web peut être infecté. Le résultat est que la réponse de l’agresseur est envoyée au client à la place de celle du serveur légitime. Le fractionnement HTTP constitue l’un des moyens d’infecter le cache d’un proxy. Le fractionnement HTTP est traité dans le chapitre, « Attaques de scripts HTML ».


Chap05_chasser_failles_microsoft-4.jpg
Figure 1. Programme malveillant écoutant spécifiquement les demandes pour l’adresse IP 192.168.1.188 sur le port 8080.



Le socket serveur est piraté

Quand un programme lie (associe) une adresse locale et un port, l’action par défaut pour le programme consiste à associer toutes les adresses locales à ce port. Même les ordinateurs avec une carte réseau ont généralement deux adresses IP au minimum : une adresse accessible de façon externe et l’adresse localhost (127.0.0.1). Il est possible que deux programmes écoutent sur le même port quand des adresses différentes sont associées à ce port. Par exemple, un programme peut écouter sur le port 80 pour l’adresse IP externe, alors qu’un programme distinct écoute sur le même port pour l’adresse localhost. Même si un programme peut écouter sur un même port pour toutes les adresses, un autre programme peut demander le même port pour une adresse spécifique. Quand une connexion est établie pour l’adresse spécifique, le programme qui écoute ces demandes la reçoit. Ce processus est illustré à la figure 1, qui montre que le programme malveillant recevra toutes les demandes réseau avec l’adresse IP de destination 192.168.1.188 sur le port 8080, parce que le programme malveillant est plus spécifique dans ce qu’il écoute que ne l’est le programme légitime.

Le piratage de socket constitue un problème de sécurité potentiel dans un logiciel serveur.
Si un agresseur peut obtenir un accès de niveau utilisateur (non administrateur) au serveur, en écoutant sur une adresse spécifique, l’agresseur peut essayer de recevoir les demandes normalement reçues par un processus serveur sur le même ordinateur. Si un socket peut être piraté, le programme serveur qui a ouvert le socket piraté contient un bogue qui doit être corrigé.


Les applications s’exécutant sur les systèmes d’exploitation UNIX sont aussi potentiellement vulnérables au piratage de socket. La plupart des systèmes UNIX requièrent admin/root pour ouvrir un socket port 1024 et au-dessous.


L’outil Netcat (http://www.vulnwatch.org/netcat/) est utile pour tester les failles de piratage de socket. Une fois que le programme serveur cible écoute sur un port, émettez la ligne de commande suivante en tant qu’utilisateur :

nc -s <Adresse_IP> -p <Numéro_Port> -v –l


...où Adresse_IP désigne l’adresse du serveur à pirater et Numéro_Port le port à pirater. Le compte utilisé pour lancer la commande Netcat doit être différent de celui utilisé par le processus serveur. Une fois la commande Netcat émise, essayez d’établir une connexion au serveur. Si Netcat reçoit la connexion, l’application serveur est vulnérable au piratage de socket.


Dans les versions antérieures à Microsoft Windows Server 2003, les développeurs devaient explicitement bloquer le piratage de socket en définissant l’indicateur SO_EXCLUSIVEADDRUSE.
En conséquence, beaucoup d’applications serveur sont vulnérables à cette attaque. Par exemple, nous avons récemment testé plusieurs applications serveur et constaté qu’elles étaient les plus vulnérables.



Dans Windows Server 2003, Microsoft a amélioré la sécurité des sockets de telle sorte que, par défaut, ils ne puissent pas être partagés. Pour plus d’informations sur cette modification et le piratage de socket, consultez MSDN, à l’adresse
http://msdn.microsoft.com/library/default.asp?url=/library/en-us/winsock/winsock/using_so_reuseaddr_and_so_exclusiveaddruse.asp.


SSL empêche-t-il les attaques serveur malveillantes ?

Le protocole SSL peut atténuer certaines attaques de réponses malveillantes. Si le client utilise SSL et contrôle que le certificat SSL du serveur est valide (autrement dit, qu’il provient d’une autorité de certification approuvée, qu’il n’a pas expiré, que le nom du serveur auquel le client s’est connecté correspond au nom sur le certificat, que le certificat n’a pas été révoqué, etc.), les attaques de type intercepteur, le contrôle et/ou l’infection du DNS, et le piratage de socket ne fonctionneront pas. Cependant, SSL n’arrête pas les attaques dans lesquelles l’agresseur contraint une cible à se connecter à un serveur arbitraire (voir plus haut). Même si SSL permet de se connecter, un agresseur peut légitimement obtenir un certificat SSL à des fins malveillantes.


Manipulation des réponses du serveur

Les mêmes techniques qui sont utilisées pour envoyer des demandes malveillantes à un serveur peuvent également l’être pour envoyer des réponses malveillantes à un client, à quelques différences près. Au lieu de créer un client personnalisé, il est possible de créer un serveur personnalisé. Au lieu de raccorder les demandes au serveur, ce sont les réponses qui peuvent l’être au client. Des programmes comme Netcat peuvent être utilisés pour écouter sur un port arbitraire afin d’envoyer des réponses personnalisées. L’utilisation d’un proxy pour les réponses à la place des demandes s’effectue de la même façon.


Le client cible est en difficulté si les attaques de type intercepteur, le contrôle et/ou l’infection du DNS, et le piratage de socket peuvent se produire. Les applications clientes doivent être écrites avec soin pour s’assurer que le client n’est pas mis en danger à la suite de telles attaques.
Prenez aussi en compte qu’un serveur qui est normalement approuvé peut être mis en danger. Dans ce scénario, les données de l’agresseur peuvent être envoyées depuis le serveur via SSL. Il importe de se demander jusqu’à quel degré un client doit faire confiance à un serveur.
Par exemple, pour réduire la mise en danger d’un serveur, les programmes qui téléchargent et installent automatiquement les mises à jour vérifient souvent la signature de la mise à jour. Pour qu’il soit plus difficile à un agresseur de modifier les mises à jour, la clé privée utilisée pour signer les mises à jour ne doit pas résider sur le serveur.
Sans de réelles mesures de défense telles que celle-ci, un agresseur qui met en danger le serveur mis à jour serait alors capable d’installer et de mettre en danger tout client demandant des mises à jour.




Failles courantes lors de l’envoi de réponses malveillantes

De même que l’envoi de demandes malveillantes inattendues constitue un point d’entrée pour les applications serveur, l’envoi de réponses malveillantes inattendues constitue un terrain privilégié pour les attaques clientes. Voici quelques bogues trouvés couramment lors de l’envoi de réponses malveillantes :
• L’usurpation
• Divulgation d’informations
• Dépassements de mémoire tampon
• Formats de chaînes
• Élévation de domaine/zone


Les réponses malveillantes constituent une zone parfaite pour trouver les bogues. De nombreux développeurs n’anticipent pas cet aspect quand ils écrivent les applications clientes. Par exemple, pendant que nous écrivions l’outil Web Proxy Editor, disponible sur le site Web d’accompagnement de ce livre, nous voulions nous assurer que l’outil fonctionnait correctement pour manipuler les réponses du serveur.
Le but était plus de s’assurer du bon fonctionnement de Web Proxy Editor qu’il n’était de trouver des failles dans l’application que nous utilisions via le proxy. Cependant, en moins de 30 minutes, nous avons été capables de trouver le moyen d’exécuter un code arbitraire sur l’ordinateur client en envoyant une réponse malveillante.




Exemples de bogues de réponses malveillantes

Les bogues de réponses malveillantes signalés au public concernent généralement des scénarios où la cible peut se connecter à un serveur arbitraire. Cela ne signifie pas, cependant, qu’il y a moins de bogues que dans les autres scénarios évoqués (attaques de l’intercepteur, par exemple). Simplement, ils sont plus difficiles à exploiter, car ils s’appuient souvent sur d’autres attaques (l’exécution d’une attaque de type intercepteur peut nécessiter le contrôle du DNS, par exemple) et, généralement, ils ne sont pas révélés au public.

Les deux sous-sections suivantes montrent l’exemple d’un client autorisé à se connecter à un serveur arbitraire et l’exemple d’un client qui se connecte à un serveur codé en dur.


Exemple : divulgation des variables d’environnement du client Telnet

La RFC 1572 (http://www.ietf.-org/rfc/rfc1572.txt) décrit l’option d’environnement de telnet, appelée NEW-ENVIRON, avec laquelle un ordinateur peut extraire ou définir les options d’environnement. Ces variables peuvent être connues ou définies par l’utilisateur.
Cette dernière option permet d’interroger ou de définir des variables arbitraires. Y voyez-vous un quelconque problème ? Gaël Delalleau, lui, a découvert qu’un serveur telnet malveillant pouvait interroger les clients telnet par rapport à des variables d’environnement arbitraires. Il a pu utiliser cette « fonctionnalité » pour obtenir des informations, auxquelles il n’avait généralement pas accès, sur les victimes qui se connectaient à son serveur à l’aide d’un client telnet vulnérable.

Peu de personnes se connectent consciemment à des serveurs telnet auxquelles ils ne font pas confiance. Aussi, comment un agresseur pourrait-il obliger une cible à se connecter à un serveur telnet malveillant ? Il s’avère qu’un gestionnaire de protocole est associé au protocole telnet (telnet://). Un agresseur peut utiliser le gestionnaire de protocole comme une URL pour pointer vers un serveur malveillant (exemple : telnet://exemple.com) et incorporer l’URL malveillante dans une page Web que la cible pourrait visiter.
Par exemple, l’agresseur pourrait incorporer <IFRAME SRC="telnet://exemple.com"> pour obliger telnet à se connecter à exemple.com. Ce bogue a concerné beaucoup de fournisseurs, y compris Microsoft, Sun et Red Hat. Pour plus d’informations sur ce bogue, voir http://www.securityfocus.com-/archive/1/402230/30/0.

Pour découvrir ce bogue, vous devez comprendre comment le protocole telnet fonctionne.
Par exemple, nous avons espionné le trafic d’une session telnet et n’avons pas vu l’option NEW-ENVIRON utilisée.


En comprenant les spécifications, vous pouvez invoquer des fonctionnalités qui existent chez le client mais que le serveur n’a pas demandées.


Pour ce bogue spécifique, envoyez des données mises en forme comme illustré à la figure 2 pour demander la variable d’environnement USERDOMAIN. Cette variable est communément utilisée pour stocker le domaine Microsoft Windows auquel l’utilisateur est connecté. Des informations comme celle-ci sont utiles quand vous attaquez un ordinateur.

Chap05_chasser_failles_microsoft-8.jpg
Figure 2. Données binaires envoyées au client telnet à l’aide de NEW-ENVIRON et demandant au client d’envoyer la variable utilisateur USERDOMAIN.

Chap05_chasser_failles_microsoft-8bis.jpg
Figure 3. Réponse XML du serveur contenant les fichiers qui doivent être mis en cache par le client.


Sur certains ordinateurs que nous avons examinés, les mots de passe étaient stockés dans les variables d’environnement ! (Les problèmes de divulgation d’informations sont traités plus en détail au chapitre 7, « Divulgation des informations ».) Des mises à jour de sécurité ont été émises pour ce problème spécifique de telnet.


Netcat peut être utilisé pour écouter sur un port. Pour reproduire rapidement le bogue telnet, vous pouvez créer un fichier binaire utilisant le contenu illustré à la figure 5-2. La commande nc -l -p 23 -v < telnetFile.hex envoie le contenu du fichier nommé telnetFile.hex à un client connecté. Contrairement à beaucoup d’outils, Netcat lit correctement et envoie des caractères null ou autres caractères non affichables, d’où sa grande utilité pour ce type de test.



Exemple : mise en cache de fichiers autorisant l’exécution de code arbitraire

Un ami était récemment en train de corriger un bogue dans le code d’une tierce personne.
L’application sur laquelle il travaillait demandait un fichier XML (Extensible Markup Language) à partir d’un serveur codé en dur, via HTTP. La réponse XML contenait des noms de fichiers que le client devait télécharger et stocker localement. La réponse XML était similaire à ce qui est illustré dans la figure 3.
La fonctionnalité était destinée à être utilisée pour mettre en cache les images dans un répertoire local spécifié par le programme. Par exemple, C:\Cached Images\. Cependant, aucune précaution n’était prise pour s’assurer que seules les images étaient téléchargées.
À première vue, le bogue était le suivant : si un agresseur pouvait envoyer une réponse malveillante, tout fichier (image ou autre) pouvait être téléchargé sur le répertoire C:\Cached Images\. Cependant, une situation pire était possible. Non seulement l’agresseur pouvait imposer l’écriture sur disque de n’importe quel fichier, mais il pouvait l’écrire à n’importe quel emplacement spécifié. Par exemple, si le nom de fichier ..\Documents and Settings\nom_utilisateur\Menu Démarrer\Programmes\Démarrage\trojan.exe est envoyé dans la réponse XML, trojan.exe peut être écrit dans le groupe de démarrage de la cible et exécuté à la prochaine connexion de la cible.

Heureusement, ce problème a été identifié et corrigé en même temps que plusieurs autres avant que le produit ne soit livré aux clients. Vous pouvez trouver des bogues comme celui-ci en exécutant un proxy HTTP chaque fois que vous testez une application cliente qui demande des données sur HTTP.
Linux Journal
Réduire
Le langage D
Un puissant langage managé et compilé
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

dlogo.jpg
Au cours des dernières décennies, les langages de programmation ont parcouru un long chemin. En comparaison avec l’époque des débuts d’UNIX et du C, lorsque les langages compilés prenaient juste forme, le monde d’aujourd’hui est envahi de langages de toutes natures avec chacun leurs fonctionnalités et leurs raisons d’être. Dans cet article, nous allons voir l’un de ces langages modernes, le langage D, de l’éditeur Digital Mars. Le D est nativement un langage compilé, impératif et orienté objet, avec une syntaxe épurée du C.


Le but du langage D est de simplifier le développement de n’importe quel type d’application, de la conception d’un noyau à la conception d’un jeu, en combinant les performances et la flexibilité du C, avec la productivité de langages, tels que le Python ou le langage Ruby. Il a été conçu à l’origine par Walter Bright, le même homme qui est à l’origine du premier compilateur C++ ANSI pour DOS. Le compilateur D (dmd) de référence est librement téléchargeable pour les deux environnements Windows et Linux, et distribué sous la forme des licences conjointes GPL et artistiques.
Il existe aussi GDC, qui est le nom du compilateur D, reposant sur GCC (pour GNU Compiler Collection – NDT) et qui est distribué sous les termes de la licence GPL. Les fonctionnalités du langage D incluent l’absence d’un pré-processeur, un système de ramasse miettes, un système de contrats, un assembleur inline, etc. Et malgré tout cela, il parvient à maintenir une compatibilité avec le C, ce qui lui permet d’utiliser facilement, sans trop de travail, d’anciennes bibliothèques C. La bibliothèque de fonctions standard D est d’ailleurs liée aux bibliothèques standardisées C, autant que possible.


La procédure d’installation décrite sur le site de Digital Mars présente quelques lacunes. D’abord, vous devez modifier le dmd.conf recopié sous l’arborescence /etc pour qu’il ressemble à ceci :

cat /etc/dmd.conf
[Environment]
DFLAGS=-I%@P%/../src/phobos -I/home/noe/dmd/src/phobos -L-L%@P%/../lib


Ensuite, n’oubliez pas d’installer gcc et le package build-essential. Enfin, vous devez compiler à la racine sous peine d’obtenir un message d’erreur :

cd /home/noe
/home/noe/dmd/bin/dmd /home/noe/dmd/samples/d/helloLJ.d
gcc helloLJ.o -o helloLJ -m32 -lphobos -lpthread -lm -Xlinker -L/home/noe/dmd/bin/../lib

noe@ubuntu:~$ ./helloLJ
Hello world!




L’incontournable « Hello World »

En D, le traditionnel « Hello World » prendra la tournure suivante :

helloLJ.d
import std.stdio; // standard i/o module
int main(char[][] args) { writefln("Hello world!");
return 0; }


Le writef en D est la version sécurisée du printf en C ; le writefln ajoute un retour de chariot en fin de ligne. Le « ramasse-miettes » de D inclut une gestion automatique de la mémoire, soulageant ainsi le programmeur de la nécessité de contrôler cette mémoire explicitement. Ceci permet aux développeurs de se concentrer sur la tâche en cours, sans devoir s’inquiéter de l’état de chaque tronçon de mémoire qu’il a réservé. En outre, il élimine une série de bogues, comme les pointeurs pointant sur des zones de mémoire invalides. Il est important de souligner que ce mécanisme peut être désactivé pour réduire la consommation des ressources processeur selon les besoins de l’application développée.


Les modules

En langage D, les modules sont importés en utilisant le mot clé import et ont une correspondance linéaire avec les fichiers source, tout en utilisant le point comme séparateur de chemin. Chaque mot clé dans un module possède deux noms : le nom du mot clé lui-même et le nom du mot clé préfixé par le nom de son espace de nom, que l’on a baptisé nom long complètement qualifié (note du traducteur : FQN signifiant Full Qualified Name).

Par exemple, le mot clé « writefln » peut s’écrire sous la forme de son nom simple « writefln » ou encore sous la forme « std.stdio.writefln ». Si vous décidez d’utiliser le nom complètement qualifié, l’import sera statistique et ne sera pas placé dans l’espace de nom principal. Par exemple, « std.strings » et « std.regexp » possèdent tous les deux des fonctions de recherche et de remplacement de chaînes de caractères. Mais comme nous préférons utiliser les fonctionnalités de manipulation de chaînes de strings, plutôt que d’employer des fonctions issues d’expressions régulières, nous pourrons déclarer explicitement l’espace de nom « std.strings » pour nous forcer à utiliser un chemin FQN lorsque nous appellerons une fonction liée aux expressions régulières.

Les modules peuvent avoir des constructeurs et des destructeurs statiques. La fonction statique « this() » de n’importe quel module est un constructeur statique appelée avant « main() ». Après le retour de « main() » la fonction statique « ~this() » est appelée (destructeur). Puisque ces modules sont importés symboliquement, ceci signifie qu’il n’y a aucun fichier d’en-tête (headers). Tout est déclaré en une seule et unique opération, éliminant le besoin de déclarer des fonctions à l’avance ou de déclarer des classes dans deux endroits différents, tout en veillant à maintenir les deux déclarations conformes.


Alias et typedef

Avec le langage D, il est nécessaire de distinguer un alias d’un type. Un « typedef » représente un type entièrement nouveau au système de vérification des types, et à la surcharge de fonction qui sera discutée plus tard. Un alias est un nom de remplacement simple pour un type, ou d’un mot clé :

alias int size_t; typedef int myint; someReallyLongFunctionName func;



Les Tableaux

En langage D, vous disposez de trois types de tableaux : les tableaux statiques, dynamiques et associatifs. Par convention les matrices seront interprétées de la droite vers la gauche ; « char [][] » est interprété comme un tableau de tableaux de caractères.

int[] intArray; // tableau dynamique d’entiers, organisé en une matrice int[2][4]


Chaque tableau possède une longueur, et un ordre de tri « .sort » (à partir duquel on peut déduire l’ordre inverse avec « .reverse »). Les tableaux associatifs sont des tableaux pour lesquels l’index est représenté par quelque chose d’autre que des nombres entiers séquentiels, comme des chaînes de caractères :

import std.stdio;
int main(char[][] args) {
    int[char[]] petNumber;
    petNumber["Dog"] = 212;
        petNumber["cat"] = 23149;
    int[] sortMe = [2, 9, 341, 23, 74, 112349];
    int[] sorted = sortMe.sort;
    int[] reversed = sorted.reverse;
    return 0;
}


Les tableaux dynamiques et statiques peuvent être isolés en tranches à l’aide de l’opérateur « .. ». Le paramètre de départ est zéro, mais le paramètre de fin n’est pas inclus. Par conséquent, si vous découpez en tranches de zéro à la longueur d’un tableau, vous obtiendrez le tableau dans sa totalité.

int[] numbers = [1, 2, 3, 4, 5, 6, 7];
numbers = numbers[0..2] // numbers contient 1 et 2


Démonstration

cat /home/noe/dmd/samples/d/tableaux.d
import std.stdio;
int main(char[][] args) {

int[] nombres = [1, 2, 3, 4, 5, 6, 7]; nombres = nombres[0..7];
writefln(nombres);
return 0; }

/home/noe/dmd/bin/dmd /home/noe/dmd/samples/d/tableaux.d
gcc tableaux.o -o tableaux -m32 -lphobos -lpthread -lm -Xlinker -
    "L/home/noe/dmd/bin/../lib
noe@ubuntu:~$ ./tableaux
[1,2,3,4,5,6,7]



Aussi, le D utilise l’opérateur « ~ » pour la concaténation, car l’addition et la concaténation sont deux concepts fondamentaux différents :

char[] string1 = "Hello ";
char[] string2 = "world!";
char[] string = string1 ~ string2; // ce qui donne bien «Hello world!»


Nous sommes ici en présence d’un exemple typique de la manière dont le langage D met en application une syntaxe plus simple au-dessus de routines de plus de bas niveau, ce qui aura pour conséquence directe que le programmeur pourra davantage se concentrer sur l’implémentation des traitements qu’il doit effectuer.

Les chaînes en langage D sont des tableaux de caractères, ce qui fait qu’il n’intègre explicitement aucun type string. Au lieu de cela, nous déclarerons simplement un tableau de caractères. En outre, le D possède trois types de chaînes de caractères : « char (UTF-8) » ; « wchar (UTF-16) » ; et « dchar (UTF-32) ». Ces types, qui s’accompagnent de routines standard de manipulations des caractères au format unicode, font de D un langage particulièrement adapté à la programmation internationale.

En comparaison du C, les strings en langage D connaissent leur longueur, éliminant sur ce point bien des bogues et des questions de sécurité relatives au terminateur nul du C.


Les contrats

Avec le langage D, vous pouvez mettre en œuvre des techniques qui rendent la programmation de contrat facile, ce qui vous conduira à une meilleure garantie concernant la qualité de vos logiciels. Le fait que la réalisation de ces contrats soit implicite au langage aura pour conséquence que le programmeur ne devra pas faire explicitement appel à du code externe issu d’une bibliothèque. Le type de contrat le plus simple est représenté par le mot clé « assert ». Celui-ci vérifie que la valeur qui lui est passé est bien à « true » (vrai), et sinon, il lancera une exception.
Les lignes « assert » peuvent contenir des arguments facultatifs destinés à afficher des messages plus instructifs décrivant la nature de l’exception. Les fonctions ont deux types de contrats, de types « pre » et « post », qui sont déclarés sous la forme de blocs d’instructions « in » et « out » précédant une fonction. Le contrat « in » doit être rempli avant que le reste de la fonction soit exécuté ; autrement, un  « AssertError » sera lancé.

Le contrat « post » passe en revue la valeur de retour de la fonction, dans le but de s’assurer qu’elle a bien rempli le rôle qu’elle était censée remplir avant que l’application ne continue en séquence.

Lorsqu’un programme est compilé avec l’option d’optimisation activée, l’ensemble des contrats est enlevé pour une raison de vitesse d’exécution :

int sqrt(int i) in { assert(i > 0); } out(result) {
    result assert((result * result) ==i); } body {...}


Un autre type de contrat est le test unitaire. Son but est de s’assurer qu’une fonction, ou un ensemble particulier de fonctions, fonctionne selon certaines spécifications avec divers arguments possibles.

Supposons que nous ayons affaire avec la fonction suivante, plutôt inutile, d’addition :

int add(int x, int y) { return x + y; }


Le test unitaire sera placé dans le même module, et sera exécuté à condition que vous ayez passé l’argument « -unittest » au compilateur. Dans ce cas-là, nous obtiendrions probablement quelque chose du genre :

unittest { assert(add(1, 2) == 3); assert(add( -1, -2) == -3); }



La compilation conditionnelle

Puisque le langage D n’a aucun préprocesseur, les options conditionnelles de compilation font partie du langage lui-même. Avec cette aptitude, les nombreux maux de tête que les développeurs contractaient à l’utilisation d’un préprocesseur, et des multiples manières de l’employer, ne sont plus qu’un mauvais souvenir. Et en plus, la compilation sera plus rapide.

Le mot clé version tient beaucoup de la directive « #ifdef » de C. Si un identifiant de version est défini, le code situé après lui sera compilé, sinon il ne le sera pas :

version(Linux) import std.c.linux.linux; else version(Win32) import
    std.windows.windows;


Le mot clé debug ressemble beaucoup à version, mais il n’a dans son cas pas besoin nécessairement d’un identifiant. Le code de mise au point (de déboguage) sera exécuté globalement ou exécuté selon une condition spécifique :
debug writefln("Debug: qq chose s’est produit."); debug (socket)
    writefln("Debug: qq chose s’est produit concernant les sockets.");


Enfin, le « if static » effectuera une vérification lors de la compilation de constantes :

const int CONFIGSOMETHING = 1; void doSomething() { static if(CONFIGSOMETHING == 1) { .... }    }



Le mot clé « scope »

Le mot clé « scope » a été inventé pour permettre aux programmeurs de nettoyer convenablement son code selon le succès ou non de l’exécution d’un tronçon de code :

void doSomething() { scope(exit) writefln("Nous sommes sortis."); scope(suc
    "cess) writefln("Nous sommes sortis normalement.");
scope(failure) writefln("Nous sommes sortis en raison d’une exception."); ... }



L’inférence en langage D

Le langage D autorise l’inférence automatique d’un type de variables à l’aide du mot clé « auto ». Ceci permet au compilateur de choisir le type optimal quand cette fonctionnalité est nécessaire.

auto i = 1; // int auto s = "hi"; // char[4]



L’itérative « foreach »

Beaucoup d’entre vous connaissent déjà l’itérative « foreach » ; elle indique essentiellement au code, « de faire ceci pour chaque élément de ce tableau » par opposition à « faire ceci un certain nombre de fois, qui s’avère justement être la longueur du tableau ». Les boucles de type « foreach » simplifient grandement le traitement de chaque élément d’un tableau, car le programmeur ne doit plus s’inquiéter de gérer la variable compteur. C’est le compilateur qui gère lui-même ce compteur de manière transparente :

char[] str = "abcdefghijklmnop"; foreach(char c; str) writefln(c);


Vous pouvez également obtenir l’index d’un élément en le déclarant dans la boucle :

int [] y = [5, 4, 3, 2, 1]; foreach(int i, int x; y) writefln("number %d is %d", i, x);


Et, cerise sur le gâteau, vous pouvez même ignorer les types de variables, en utilisant l’inférence automatique de types :

foreach(i, c; str)


Ceci ouvre la porte à de nombreuses optimisations au niveau du compilateur, tout en laissant au développeur la flexibilité d’accomplir ce qu’il a en ligne de mire.


Les exceptions

En règle générale, le langage D emploie des exceptions pour la gestion d’erreur par opposition aux codes d’erreur. Le D utilise le trinôme bien connu « try-catch-finally », qui permet au code de se nettoyer en cas de problème.


Les classes

Comme n’importe quelle langage orienté objets, le D possède la capacité de créer des classes d’objet. Cependant, une grande différence avec par exemple ce qui se fait en C++ est l’absence d’un mot-clé explicite de création de classes virtuelles. En effet, ceci est réalisé automatiquement par le compilateur. Le D emploie un paradigme d’héritage simple, comptant sur les interfaces et les « mixins » (que nous allons découvrir plus tard), pour compléter les lacunes d’héritages. Les classes sont passées par référence plutôt que par valeur, ainsi le programmeur ne doit pas s’inquiéter de les traiter comme des pointeurs. En outre, il n’y a pas d’opérateurs « -> ou :: » ; le point « . » est en effet employé dans toutes les situations pour accéder à des membres de structures et de classes.

Toutes les classes dérivent d’Object, la racine de la hiérarchie :

class MyClass { int i; char[] str; void doSomething() { ... }; }


Les classes peuvent définir des propriétés ayant des fonctions multiples avec le même nom :

class Person { private char[] PName; char[] name() {return PName;} voidname(char[] str) { }
    }


Les classes peuvent avoir des constructeurs et des destructeurs, à savoir « this et ~this » :

class MyClass { this() { writefln("Constructeur appelé");} this(int i) {writefln("Constructeur
    appelé avec %d", i); } ~this() { writefln("bye");}


Les classes ont accès aux constructeurs de leur classe de base :

this(int i) { super(1, 32, i); // super est le nom de base de la classe constructeur
    }


Des classes peuvent être déclarées à l’intérieur d’autres classes ou fonctions, et elles ont accès aux variables dans cette portée. Elles peuvent également surcharger des opérateurs, tels que la comparaison, comme dans C++.

Les classes peuvent inclure des « invariant », qui sont en fait des contrats pour lesquels une vérification aura lieu après l’exécution des constructeurs, mais qui seront enlevés lors de la compilation finale optimisée :
class Date
{
int day;
int hour;
invariant
    {
        assert(1 <= day && day <= 31);
        assert(0 <= hour && hour < 24);
    }
}

Ajoutons que si vous devez vérifier que deux références de classe pointent sur une même classe, vous pouvez employer l’opérateur « is » :

MyClass c1 = new MyClass; MyClass c2; if(c1 is c2) writefln("Ces références pointent sur la même classe.");



Les Interfaces

Une interface est un ensemble de fonctions que n’importe quelle classe dérivant de celle-ci doit implémenter :

interface Animal { void eat(Food what); void walk(int direction); void makeSound();
}



Les fonctions

Avec le langage D, le compilateur décide quelle fonction il doit appeler en analysant les arguments passés. Ainsi, le programmeur peut définir deux fonctions possédant le même nom sans que le programmeur ne s’inquiète à ce sujet.
Autrement dit, les fonctions peuvent être surchargées, c’est-à-dire que deux fonctions du même nom peuvent prendre différents paramètres, mais le compilateur est assez futé pour comprendre de laquelle vous parlez :

void func(int i) // can implicitly take // longs and shorts too {...} void func(char[] str) {...}
    void main() { func(23); func("hello"); }


Les paramètres d’une fonction peuvent être indiqués comme étant en entrées (in), en sorties (out), en entrées/sorties (inout), ou paresseux (lazy) qui est le comportement par défaut. Les paramètres de sorties sont des sorties simples :

void func(out int i) { i += 4; } void main() { int n = 5; writefln(n); func(n); writefln(n);
    }


(Note du traducteur) Ce qui donnera bien :

./test
5
4

Les paramètres de type « inout » sont du type lecture/écriture, mais aucune nouvelle copie n’est créée :

void func(inout int i) { if(i >= 0) ... else ... }

Les paramètres « lazy » sont dit « paresseux » car ils ne sont calculés que lorsque cela s’avère nécessaire :

log("Log: Erreur : "~toString(i)~" fichier non trouvé.");


Notez que chaque fois que vous appelez la classe « lazy », les chaînes sont concaténées et passées à la fonction. Cette classe de stockage signifie que les chaînes ne sont construites que si elles doivent l’être.
Les fonctions imbriquées en langage D permettent l’emboîtement de fonctions dans d’autres fonctions :

void main() { int i; void func() { writefln(i + 1); } }


Les fonctions imbriquées ont accès en lecture/écriture aux variables de la fonction contenue :

void main() { int i; void func() { writefln(i + 1); } }



Les modèles (templates)

En D, les modèles ont été entièrement revus. Ils sont hautement flexibles. Ainsi, pour instancier un nouveau modèle, vous utiliserez l’opérateur « ! ». Ceci élimine les nombreuses ambiguïtés provoquées par une instantiation par le biais de « <> ». (« !» étant plus aisément reconnaissable).
Voici un exemple de modèle simple :

template TCopy(t) { void copy(T from, out T to) { to = from; } } void main() { int from = 7; int
    to; TCopy!(int).copy(from, to); }


Les déclarations d’un modèle peuvent être aliasées :

alias TFoo!(int) temp;


Des modèles peuvent être spécialisés pour différents types, et le compilateur déduit à quel type vous vous référez :

template TFoo(T) { .... } // #1 template TFoo(T : T[]) { .... } // #2 template TFoo(T : char) { .... }
    // #3 template TFoo(T,U,V) { .... } // #4 alias TFoo!(int) foo1; // instantiates #1 alias TFoo!(double[]) foo2; //
    instantiates #2 // with T being double alias TFoo!(char) foo3; // instantiates #3 alias TFoo!(char, int) fooe; //
    error, number of // arguments mismatch alias TFoo!(char, int, int) foo4; // instantiates #4



Les modèles de fonctions

Si un modèle a comme seul membre une fonction, et rien d’autre, il pourra être déclaré comme ceci :

void TFunk(T) (T i) { ... }

Les modèles de fonction peuvent être instanciés implicitement, et les types des arguments déduits :

TFoo!(int, char[]) (2,"foo"); TFoo(2, "foo");

Dans le cas de modèles de classes vous pouvez déclarer un modèle de manière simplifiée si son seul membre est une classe :

class MyTemplateClass (T) { ... }



Les « Mixins »

Un « mixin » est juste comme un copier/coller du code d’un modèle dans une classe :

template TFoo(t) { t i; } class test { mixin TFoo!(int); this() { i = 5; } } void main() { Test t =
    new Test; writefln(t.i); }



Conclusion

Le D est un langage prometteur qui peut couvrir de nombreux besoins. Ces qualités, comme sa grande facilité à manipuler des tableaux, ou bien encore l’inférence, rendent le langage D comparable aux langages Ruby ou Python. De plus, le D laisse toujours la porte ouverte pour les programmeurs système de bas niveau avec son assembleur intégré. Ce langage manipule la programmation objet avec les concepts de classes et d’interfaces, la programmation générique avec modèles, ainsi que la programmation procédurale classique comportant des fonctions. Le ramasse-miettes soulage le programmeur de la nécessité de contrôler toutes les allocations mémoire, tout en rendant toujours possible la liberté de le faire manuellement. Il apporte des dispositifs propres aux langages impératifs, tels que le LISP, avec la classe dite « paresseuse » de stockage, qui accélère rigoureusement l’efficacité du langage. Le langage D est stable, et prêt pour le déploiement réel.


Walter Bright : « Si un langage peut récupérer 90 % de la puissance du C++, mais seulement 10 % de sa complexité, cela vaut largement le coup. »
http://fr.wikipedia.org/wiki/Langage_D
« Le langage D possède une syntaxe épurée du C, dont l’un des effets est de rendre la compilation plus rapide. Ainsi, couplé avec des notions modernes incluses dans le langage, la productivité est améliorée. »




À propos de l’auteur
Ameer Armaly est un jeune homme de 18 ans. Parmi ses centres intérêts figurent la guitare, la programmation et la science-fiction.

Ressources

• Compilateur D, spécifications et références : www.digitalmars.com/d

• GDC : dgcc.sf.net

•Projets Open-Sources et tutoriaux : www.dsource.org
SUN Solaris 10
Réduire
SUN Solaris 10
À la recherche d’un nouveau modèle
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Il y a bien longtemps que l’on n’avait pas eu droit à autant d’annonces importantes chez SUN sur son système d’exploitation. En quelques semaines, le constructeur semble vouloir combler son retard en orientant Solaris vers un nouveau modèle économique. Pour rester dans la course, les innovations technologiques suivent.

Solaris 10 DVD IMG_4551.jpg
La nouvelle version de l’UNIX de SUN profite pleinement des apports de la virtualisation et d’importantes innovations techniques.
Si SUN est bien présent sur le marché des serveurs Unix, il connaît un déficit de notoriété sur les environnements x86, dévolus aujourd’hui à Windows et Linux. Le nombre de serveurs x86 installés avec SUN Solaris ne représenterait que 0,5 % des serveurs. Les dernières annonces sur Solaris 10 proposent d’apporter des armes à SUN sur ce secteur. Ces annonces doivent être mises en parallèle avec le partenariat que SUN vient de signer avec Intel pour fournir des serveurs x86 sur puces Intel fonctionnant sous Solaris.


Cinq niveaux de support !

Jean-Yves Pronier, directeur marketing produits chez Sun France, met tout de suite en exergue ce nouveau modèle. Le business model s’oriente désormais vers des services de support du fait de la gratuité du produit. Le but affiché est d’attaquer les bases installées de Red Hat, Suse et Windows sur le tiers Web de l’infrastructure qui devient de plus en plus critique dans l’environnement d’entreprise.
SUN propose désormais cinq niveaux de supports à des prix très agressifs. Cela va d’une offre débutant avec des e-mails facturés pour les développeurs, à des niveaux intermédiaires qui dépendent du niveau de qualité de services voulu par l’entreprise et de la complexité de son environnement. Par défaut, tout utilisateur de Solaris enregistré bénéficie gratuitement des mises à jour de sécurité, des correctifs ou évolutions fonctionnelles. La facturation au socket est mise en avant sur tous ces niveaux. Les prix sont systématiquement inférieurs à ceux que proposent les distributions de Linux, Red Hat et SuSe. Souscrire à l’un de ces programmes permet aussi de profiter du système d’assurance qui protège le client de toute poursuite en ce qui concerne l’utilisation.
Parallèlement, SUN a renforcé son offre de services professionnels avec la présence de multiples outils de migration des systèmes concurrents vers Solaris. Jean-Yves Pronier ajoute : « Désormais, ce sont près de 800 plates-formes x86 qui sont supportées ». Dans le même temps, SUN se rapproche des distributeurs avec un label « Solaris Ready » qui autorise les distributeurs labellisés à préinstaller Solaris sur des systèmes x86 non SUN avec des remises très intéressantes. Cette labellisation bénéficie désormais des politiques de supports que nous venons de décrire. Une large campagne marketing va accompagner ce programme vers les distributeurs. Le volet formation n’est pas oublié avec des guides spécifiques qui portent sur les différentes étapes de mise en œuvre de Solaris 10 : installation, amélioration des performances, consolidation, virtualisation. Une offre de test avec la mise à disposition de serveurs et de stations de travail avec le système préinstallé est aussi proposée. Globalement, ces différentes offres sont assez peu différentes de ce que proposent les acteurs du monde Linux. SUN profite en revanche de sa forte présence dans les centres de données, où il a une bonne popularité du fait de sa stabilité et d’un effet prix. L’intérêt principal provient de l’ouverture vers des serveurs autres que SUN sous Solaris.


De nouvelles fonctions de virtualisation

Sun_JY_Pronier.jpg
Pour Jean-Yves Pronier, directeur marketing produits chez Sun France, les annonces majeures sur cette nouvelle version concernent principalement le nouveau business model mis en place par SUN.
« Dans la virtualisation, il y a deux écoles, explique Jean-Yves Pronier, soit la présence d’un seul environnement sur une machine virtualisée, ou plusieurs OS tournant sur une machine. Nous voulons adresser les deux possibilités pour mieux nous adapter aux besoins de nos clients. »
Désormais, les « logical domains » ou « LDom » autorisent jusqu’à 32 instances d’OS sur un serveur Sparc. D’ici à quelques mois, les environnements x86 devraient posséder les mêmes fonctions avec la mise en œuvre de Xen, un projet Open Source de virtualisation, dans le noyau. Cette intégration sera réalisée au cours du deuxième trimestre de cette année. Une version devrait être visible en téléchargement courant février sur Sun Express. Les containers Solaris sont disponibles maintenant sur les environnements Sparc et x86. Jean-Yves Pronier ajoute qu’« ils permettent de créer des environnements entièrement étanches et sont maintenant totalement isofonctions sur les deux plates-formes ». Ainsi, Solaris 10 traite-t-il la virtualisation sur trois niveaux différents : les partitions matérielles, l’hyperviseur et la virtualisation d’OS. Jean-Yves Pronier précise que « la virtualisation est prise en compte de plus en plus vers les bas niveaux ».
Des conteneurs « volants » ou « flying containers » reprennent la notion présente dès le début de Solaris, celle des containers, et autorise le transport d’un container d’une machine A vers une machine B, de manière transparente. Cette fonction est particulièrement utile dans les plans de secours, pour une gestion optimisée des pics de charge, les déplacements à la volée, le patching…
La version présente aussi la première version d’un système de fichiers 128 bits, ZFS. Il apporte de plus grande possibilités dans la gestion et l’intégrité des données de bout en bout et simplifie la virtualisation du stockage en associant le système de fichiers d’un container à un autre container. Ce couplage fort entre le système de fichiers et la virtualisation est un élément important de cette version. Ce système de fichiers sera d’ailleurs intégré à la prochaine version de Mac OS X, Leopard.
Les autres innovations importantes portent sur la disponibilité du système avec l’annonce de Sun Solaris Cluster 3.2. Cette version étend les fonctions pour les clusters distants et la gestion de la reprise applicative sur différents clusters dans un environnement multi-site. Un autre applicatif de clustering propose la gestion du basculement des ressources de stockage ZFS. Le produit gère aussi les containers, les applications majeures, mesure et visualise les ressources du système, l’allocation et le contrôle de processeurs par application. Les éléments de sécurité ont aussi été améliorés. Le système de contrôle des droits traditionnels à Unix est renforcé par une notion de privilège qui permet de fixer des règles aux processus actifs dans l’OS.
Cette fonction est reprise de Trusted Solaris, la version haut de gamme de l’OS pour les environnements fortement sécurisés. Les autres fonctions de Trusted Solaris sont désormais intégrées dans Solaris 10. Elles permettent ainsi de définir le profil d’un service dans un référentiel avec affectation de droits et de privilèges.
SUN propose là un OS séduisant pour les environnements de centres de données utilisant beaucoup les environnements virtualisés. Les hébergeurs devraient de plus apprécier la présence des fonctions de sécurité intégrées à l’OS. Ce dernier secteur a en effet tout intérêt à vendre des serveurs virtuels à ses clients. Cependant les clients sont toujours psychologiquement réticents à se lancer sur ce type de plate-forme. Cette dernière mouture de SUN devrait leur donner certains arguments pour convaincre leurs clients. Dans le monde Unix, il faudra cependant conserver un œil sur les futurs développements des concurrents de Solaris : HP-UX et AIX.


Solaris 10.11.06
D’importantes améliorations techniques La version actuelle, la Solaris 10.11.06, profite d’abord de l’intégration de tous les apports d’une large communauté de développement. Cette communauté de plus de 18 000 développeurs travaillant sur Open Solaris, la version libre de l’OS, a apporté 259 contributions, dont 138 ont été intégrées. Les deux OS vont d’ailleurs converger et une compatibilité binaire à 100 % entre les deux est assurée par SUN. Une autre communauté, celle travaillant sur le framework DTrace, qui propose un « tracing » dynamique, est la première contribution intégrée à Solaris 10. Les communautés Open Source renforcent la dynamique avec aujourd’hui plus de sept distribution ayant Open Solaris comme base. Et Jean-Yves Pronier, directeur marketing produits chez SUN France de préciser : « nous avons réintégré tout ce qui était optionnel auparavant, en particulier des fonctions de sécurité ».


Stockage
Réduire
La mémoire Flash est-elle l’avenir des disques durs ?
Par Yann Serra - Copyright L'Informaticien, tous droits réservés

disque00.jpg
Les supports de stockage magnétique n’ont pas dit leur dernier mot.

Grand messe de l’innovation matérielle, le salon CES a vu cette année foisonner les innovations autour des disques durs. C’est un fait : les supports de stockage magnétiques n’ont pas dit leur dernier mot. Mais la concurrence des unités à base de mémoire Flash se fait de plus en plus sérieuse.


Et si l’on remplaçait complètement le disque dur par une mémoire Flash ? À savoir celle qui équipe déjà les clés USB et autres cartes mémoires d’appareils mobiles… Voici en tout cas le pari que fait SanDisk avec le SSD UATA 5000. Présenté au dernier salon CES de janvier à Las Vegas, il s’agit d’un « disque dur » pour portable qui n’en a que l’apparence. On ne trouve en effet à l’intérieur que des puces de Ram non volatile. Débarrassée de la nécessité de faire tourner à très haute vitesse des plateaux magnétiques, une unité de stockage totalement composée de composants Flash consomme tout d’abord beaucoup moins d’énergie, ce qui, selon les premières estimations de SanDisk, permettra notamment à son SSD UATA de rallonger l’autonomie générale d’un ordinateur portable d’au moins 10 %.


Quand la mémoire Flash se fait passer pour un disque dur

La mémoire Flash est également bien moins fragile. Cette qualité lui a d’ailleurs ouvert, depuis une décennie déjà, les portes de marchés aussi spécialisés que l’aviation civile, l’aérospatiale ou encore l’Armée, domaines dans lesquels les unités de stockage sont soumises à des conditions physiques extrêmes. On se souvient ainsi de cette anecdote survenue en juillet 2005, où de jeunes chercheurs californiens ont réussi à récupérer les données atmosphériques enregistrées par leur ballon-sonde après que celui-ci, malmené par la météo, a fait un plongeon de plus de 24 000 mètres dans l’océan Pacifique. Il y séjournera cinq jours avant qu’on le retrouve. Et pourtant, enregistrées sur une mémoire Flash du même type que celle qu’utilise aujourd’hui le SSD UATA, les données capturées par les instruments de bord étaient… intactes.
Troisième avantage, le SSD UATA est aussi plus rapide que ses concurrents magnétiques. Selon des tests menés en interne, SanDisk affirme que son produit permet de démarrer Windows Vista en presque deux fois moins de temps qu’avec un disque dur classique, soit 35 secondes au lieu de 55. Il faut dire que le produit dispose d’un contrôleur qui n’a rien à voir avec ceux de maigre facture que l’on trouve dans les clés USB, lesquelles n’ont de toute façon accès qu’à une connexion à faible bande passante pour communiquer avec la machine hôte.

Sur le plan industriel, le SSD UATA reprend la connectique et le volume d’un disque dur de 1,8 pouce. Officiellement, afin que les constructeurs puissent l’insérer très simplement dans les designs existants. En pratique, on note que ce format concerne pour l’heure plus les baladeurs numériques que les PC portables. SanDisk déclare cependant que des modèles au format plus répandu de 2,5 pouces, ainsi que d’autres à une taille plus réduite, sont d’ores et déjà dans les cartons.


Connectique : après l’USB et le FireWire, l’eSATA sera-t-il enfin la bonne solution ?
cadre01.jpg
Seules quelques rares cartes mères intègrent déjà la connectique eSATA.

L’eSATA, ou « external Serial ATA », devrait a priori se démocratiser à un moment ou l’autre de cette année sur les nouveaux PC… haut de gamme. Par rapport aux actuels USB et autres FireWire, ce nouveau connecteur pour disques externes présente l’avantage de fonctionner à la même vitesse que le bus SATA de l’ordinateur, c’est-à-dire celui sur lequel sont désormais branchés les disques internes. En pratique, il s’agit d’atteindre des taux de transfert de 3 Gbits/s, là où l’USB plafonne à 0,48 Gbit/s (théoriques) et le FireWire à 0,8 Gbit/s. Problème : les fabricants sont encore timides. Ceux des disques durs n’osent pas proposer d’unité tant que les PC ne sont pas prévus pour, et ceux des PC attendent que des disques externes à ce format existent pour ajouter l’option à leurs cartes mères. Pourtant, des marques comme Seagate, LaCie et Iomega ont d’ores et déjà tenté l’aventure. Mais leurs unités eSATA supposent d’insérer en plus une carte PCI avec le connecteur idoine dans l’ordinateur. Non seulement la carte en question allonge la facture de l’appareil d’une bonne cinquantaine d’euros par rapport à l’équivalent en USB, mais, en plus, elle est tout bonnement incompatible avec les PC portables, lesquels constituent pourtant aujourd’hui le gros des ventes. Bien évidemment, le câblage de l’eSATA est différent de celui du SATA. Si ce dernier emploie bien des connecteurs suffisamment réduits pour un encombrement minimal, ses câbles n’ont en revanche pas le blindage nécessaire pour une utilisation externe, laquelle doit porter jusqu’à deux mètres. Du côté des PC, l’eSATA n’est directement possible que si la carte mère est équipée du ICH8, le chipset Southbridge dernier cri qu’Intel a sorti l’année dernière et que la majorité des fabricants n’a pas encore adopté. Il n’empêche, les analystes sont optimistes : l’eSATA devrait connaître un boum soudain dans la deuxième moitié de 2007 et des appareils numériques (lecteurs vidéo…) pourraient même intégrer le connecteur d’ici à un an.




Capacité : le disque dur toujours leader

disque01.jpg
Le SSD UATA, une unité de stockage en Flash qui reprend la forme et la connectique d’un disque dur pour s’intégrer dans les machines existantes.

Revers de la médaille, la présence de l’UATA fera grimper la facture d’un ordinateur de 600 euros en moyenne, et pour ce prix on ne bénéficiera que d’un espace de stockage d’à peine… 32 Go ! Bien sûr, on attend des prix qu’ils baissent rapidement et des configurations qu’elles croissent tout aussi vite. La mémoire Flash utilisée dans l’UATA est de type NAND, une technologie qui voit en ce moment sa capacité de stockage pour un volume donné doubler tous les ans – et, accessoirement, le prix d’une capacité donnée baisser d’environ 40 % chaque année. Ainsi, si les premiers modèles d’UATA reposent sur des puces dont les cellules ne contiennent qu’un bit de chaque octet, SanDisk dispose déjà du moyen de fabriquer des puces, dont les cellules contiendront deux, voire quatre bits par octet.
Mais dans le domaine de la capacité de stockage, la promesse de 128 Go – à terme – peut difficilement soutenir la comparaison avec l’offre actuelle des disques magnétiques, où le strict minimum se situe déjà à 80 Go dans un ordinateur portable. « Et considérez que cette capacité va maintenant s’accroître de 10 Go par trimestre », claironnait lors du dernier CES Bill Watkins, le CEO de Seagate – numéro 1 des disques durs. Et d’ajouter : « D’ici à trois ans, les constructeurs voudront proposer des portables avec une capacité de stockage d’au moins 250 Go ; les solutions en mémoire Flash n’arriveront pas à suivre ». Certes. Mais, comme le soulignent déjà plusieurs analystes, ces unités de stockage, toutes électroniques, pourraient accessoirement faire carrière dans le monde des serveurs d’appoint, notamment Web, où la faible consommation et la solidité priment sur la capacité.


Le Téra-octet enfin atteint

disque02.jpg
Avec plus de capacité, les disques durs s’imposent encore face aux solutions à base de mémoire Flash.

« Et encore ! », s’insurge Doug Pickford, le directeur stratégique d’Hitachi Global Storage (numéro 3 du disque dur, derrière Western Digital). Selon lui, « Plus de capacité par disque signifie tout simplement moins d’unités de stockage ; or, l’optimisation d’espace dans leurs salles d’informatique est précisément l’une des priorités des DSI ».
On contredirait difficilement cette affirmation puisqu’elle est cautionnée par un nouveau record que vient justement de battre Hitachi : présenté lors du même salon CES, son nouveau disque dur 3,5 pouces Desktar 7K1000 est le premier à atteindre la mythique capacité de 1 To (soit 1 000 Go, ou encore 10 octets à la puissance 12, selon la façon de compter des industriels du stockage) ! Vendu outre-Atlantique à près de 400 dollars, il place le giga-octet à moins de 40 cents. De son côté, Seagate promet de faire « au moins aussi bien » avant l’été. Pour mémoire, Seagate menait jusqu’alors la danse avec un disque 3,5 pouces de 750 Go pendant qu’Hitachi plafonnait à 500 Go.
Du côté des ordinateurs portables, c’est-à-dire des disques durs de 2,5 pouces, c’est Fujitsu qui atteint le premier une capacité de 300 Go. Seagate, en revanche, tire la couverture à lui avec un disque de 1,8 pouce (format appareils mobiles) de 60 Go dont l’épaisseur ne dépasse pas les 5 millimètres.


Densité d’informations : la lithographie nanométrique d’Hitachi
cadre02.jpg
Le défi d’Hitachi consiste à agencer les grains d’alliage qui composent la surface d’un disque magnétique en motif.

Pour parvenir à stocker un bit par grain d’alliage sur la surface magnétique d’un disque dur – contre 50 à 100 grains actuellement –, le fabricant Hitachi étudie la possibilité d’agencer les grains selon un motif, grâce à un procédé lithographique. Cependant, à l’inverse de l’industrie des microprocesseurs où l’on utilise une lithographie optique (on grave des circuits minuscules en faisant passer leur photo en ultraviolets au travers de plusieurs loupes), il s’agit ici de produire un moulage de base à l’échelle 1 qui dessine le motif sur l’alliage lorsque celui-ci est encore sous forme liquide (en séchant, il devient un plateau de disque dur). Ce moulage est créé au moyen de canons à électrons, lesquels sont pour l’heure constitués d’un diamant d’un millimètre de diamètre prolongé par une membrane longue de 20 microns et large de 200 nanomètres. Cette largeur conditionne au final la taille des grains sur le disque. Avec un bit constitué d’un grain de 200 nanomètres au lieu d’une centaine de 8 nanomètres (plus l’espace qui les sépare), on peut ainsi parvenir à stocker près de quatre fois plus d’informations sur un disque dur. Le but est bien évidemment de parvenir à réduire encore plus la taille des canons à électron.




Recherche : comment augmenter encore la capacité après 2011 ?

Privé des progrès en miniaturisation dont bénéficient tous les deux ans environ les composants électroniques, les disques magnétiques doivent leur actuelle croissance de capacité à une récente technologie dite d’enregistrement perpendiculaire qui, en plaçant de l’information dans l’épaisseur même du support magnétique, permet d’augmenter l’espace de stockage d’environ 40 %. L’enregistrement perpendiculaire n’étant industrialisé que depuis 2005, il devrait encore s’améliorer durant les trois ou quatre prochaines années. Mais ensuite ? Eh bien, les laboratoires de chaque fabricant planchent déjà sur le moyen qui permettra au marché de continuer sa course après 2011.
Il faut savoir que la couche magnétique traditionnelle, un alliage de cobalt et de platine, est constituée de grains de 8 nanomètres dont la répartition anarchique n’a rien à voir avec le quadrillage rectiligne d’un formatage par le système. À l’heure actuelle, chaque bit d’information oriente dans un sens ou l’autre (suivant que l’on stocke un 1 ou un 0) des paquets de 50 à 100 grains d’alliage. L’idée de base pour améliorer la densité d’un disque consisterait à réduire le nombre de grains par bits. Mais il y a un autre paramètre, de par leur faible taille, les grains de cobalt-platine sont sensibles à la température : un rien trop chaud et voilà que certains se mettent à changer d’orientation magnétique. Sur une centaine de grains, le changement d’état d’une dizaine d’entre eux n’aura pas suffisamment d’influence pour modifier la valeur d’un bit. En revanche, si le paquet ne comprend plus qu’une vingtaine de grains… Certains étudient la possibilité de réduire la taille des grains, sans toucher à leur nombre par bit. Mais les premiers prototypes ne fonctionnent pas, l’alliage devenant corrosif.
Seagate est parti sur l’idée de base, à savoir diminuer sans danger le nombre de grains par bit sans changer leur taille. Son projet consiste à remplacer la surface magnétique actuelle par un alliage de fer-platine, lequel est beaucoup moins sensible à la chaleur. Revers de la médaille, cet alliage est même tellement stable qu’il est nécessaire de chauffer à blanc un paquet de grains pour parvenir à modifier la valeur du bit qu’il représente ! Dans les faits, il s’agira de construire des disques dotés de deux têtes par surface, l’une magnétique pour les données et l’autre équipée d’un laser pour chauffer. Cette technique a déjà un nom : l’enregistrement magnétique assisté par la chaleur.


Ces projets fous qui réinventent le disque dur
cadre03.jpg
Les projets futuristes qui visent à réinventer le disque dur ne manquent pas, même si aucun ne s’est encore concrétisé. Les plus exotiques d’entre eux proposent de repartir de zéro sur un principe totalement différent. En tête, le projet Millipede d’IBM renoue avec l’antique carte perforée mais à l’échelle nanométrique. Ici, le support est un film plastique sur lequel des milliers d’aiguilles viennent écrire soit des 1, en perçant un trou, soit des 0, en chauffant suffisamment (entre 400 et 600 degrés Celsius) pour que le plastique fonde et que le trou se rebouche. La lecture se déroule en faisant passer un courant de part et d’autre du film : s’il y a un trou, le courant passe et c’est un 1 ; s’il n’y en a pas, le film fait office d’isolant et c’est un 0. En 2002, un prototype du Millipede constitué de 1 000 aiguilles de 10 nanomètres de diamètre chacune parvenait à stocker 100 Go sur un timbre-poste. Le produit aurait dû être industrialisé en 2005… Hélas, la tête de lecture censée déplacer les épingles n’a jamais su être rapide. ZettaCore, une start-up de Denver, planche quant à elle sur une nouvelle molécule qui peut capturer ou libérer huit électrons. Non seulement chaque paire d’électrons correspond à un bit (la présence des électrons change le voltage de la molécule, c’est-à-dire son information électrique), mais, en plus, les molécules pouvant s’attirer l’une l’autre sur une surface plastique, il devient particulièrement trivial et économique de fabriquer les disques qui reposent sur cette technologie… Enfin, en théorie. Car, pour l’instant, aucune usine n’est capable de produire en grande quantité la molécule en question. Plus fantastique, l’entreprise anglaise NanoMagnetics a résolu le problème : plutôt que d’inventer une nouvelle molécule, elle a déniché la ferritine, une protéine animale de 12 nanomètres qui enferme un cœur métallique – de la rouille ! – de 8 nanomètres. Et le procédé de fabrication d’un disque avec cette substance est tout aussi surréaliste : il suffit d’asperger la protéine sur le support avec un vaporisateur ! Quant à la capacité d’enregistrements, les essais ne sont pas encore suffisants pour pouvoir affirmer qu’une seule protéine suffit à stocker la valeur d’un bit, mais NanoMagnetics prétend avoir réussi à placer 125 Go sur un pouce-carré sans problème. Seul obstacle : la réticence des industriels, dont le conservatisme ne fait pas très bon ménage avec les frasques de la ferritine. Qu’importe pour NanoMagnetics : jamais à court d’idées iconoclastes, l’entreprise a momentanément recyclé sa protéine en purificateur d’eau révolutionnaire.



Chez Hitachi, on pense aussi à réduire le nombre de grains par bit, et même, à atteindre un seul grain par bit, tout en conservant l’alliage actuel ! L’idée consiste à augmenter suffisamment la taille de ce grain pour qu’il ne soit plus sensible aux hausses de température ambiante. Se pose alors le problème de l’agencement anarchique des grains sur la surface. Pour le résoudre, Hitachi étudie la possibilité de disposer les grains en motif, directement en usine au moyen d’un procédé de lithographie (lire l’encadré ci-contre). La surface du disque serait alors composée de « cellules », dont les emplacements précis élimineraient toute équivoque en ce qui concerne la lecture ou l’écriture d’un bit donné.
Pour l’heure, aucune de ces deux techniques n’est au point et elles demanderont encore de très gros investissements pour se réaliser, notamment en ce qui concerne leur faisabilité à l’échelle de production de masse. En ce sens, on ne peut guère déjà prévoir laquelle des deux s’imposera, les analystes penchant d’ailleurs pour un  mélange des deux.  


Disque dur intelligent : la fin de l’ordinateur portable ?
cadre04.jpg
En embarquant tout votre patrimoine numérique, le FreeAgent de Seagate veut vous faire oublier votre ordinateur portable… Mais les modèles à grosse capacité ne sont pas plus portables que votre ordinateur portable.


Présenté à l’occasion du dernier CES par Seagate, le FreeAgent est un disque dur externe dont le propos est de soulager l’utilisateur nomade de son ordinateur portable. Dans le principe, il capture tout seul absolument tout le patrimoine numérique que contient le PC de son propriétaire et le reproduit sur n’importe quelle machine à laquelle on le connecte, au hasard d’un hôtel, d’un cybercafé ou de tout autre salle informatique publique. Et lorsque l’on parle de patrimoine numérique, il ne s’agit pas que des documents de travail et des fichiers multimédias : cela comprend les paramètres de connexion de vos messageries, de vos favoris, de vos fonds d’écran, voire de vos applications.

Il contient une icône sur laquelle il suffit de double-cliquer pour que le PC anonyme que vous avez trouvé sur le lieu de votre déplacement se métamorphose en un environnement qui vous est familier. Mobilité oblige, le FreeAgent n’a pour seule connectique qu’un câble USB déroulable qui servira accessoirement à puiser l’alimentation nécessaire sur la machine hôte. Les capacités annoncées vont de 12 à 750 Go. En revanche, seuls les modèles de 160 Go maximum (disques 2,5 pouces), voire 12 Go (disque 1,8 pouce) tiendront dans la paume de la main. Évidemment, on devine que cette « intelligence » ne fonctionnera qu’avec les PC sous Windows.




Disques durs hybrides : le meilleur des deux mondes

Mais quels que soient les progrès que les fabricants feront pour repousser en permanence les capacités, leurs disques magnétiques souffriront toujours d’une vitesse plus faible et d’une consommation électrique plus grande que les unités de stockage en mémoire Flash. De fait, Seagate, Hitachi, Fujitsu, Samsung et Toshiba ont pris le parti de construire des disques durs… hybrides ! Ces derniers doublent leurs plateaux magnétiques de puces de mémoire Flash. À la différence des quelques Méga-octets de mémoire tampon que l’on trouve aujourd’hui sur les disques durs traditionnels pour accélérer les accès du système aux fichiers en cours d’utilisation, la mémoire Flash présente l’avantage de ne pas être volatile : les données qu’on y stocke survivront à une coupure de courant, et ce, jusqu’à ce que l’on demande explicitement à les effacer. Windows Vista en tire un avantage immédiat : en plaçant dans cette zone tous les fichiers nécessaires à son initialisation, le dernier système de Microsoft bénéficie d’un démarrage des plus rapides. La sortie de veille prolongée, où il s’agit de récupérer sur disque l’état de la machine, tel qu’il était avant qu’on la mette en hibernation, devient quant à lui quasiment immédiat.
Tous les fabricants devraient mettre sur le marché des modèles de disques durs hybrides dans le courant de l’année, avec une quantité de mémoire Flash d’au moins 256 Mo. Mais les premiers à l’avoir fait sont pour l’instant Seagate (modèles Momentus) et Samsung (modèles ReadyDrive), ce dernier étant même à l’initiative du concept en partenariat avec Microsoft. Mais nous n’en sommes qu’aux prémices. L’intégration de mémoire Flash va désormais permettre à Hitachi de stocker un tout nouveau système de sécurité embarqué. Celui-ci cryptera en temps réel toutes les données enregistrées et n’acceptera de les communiquer en clair au système que s’il a fourni la bonne clé de déchiffrement. Cette innovation résout un problème de longue date : un pirate n’avait jusqu’ici qu’à démarrer sur un autre disque – voire un CD – pour contourner tous les gardes fous du système d’exploitation.


cadre05.jpg
Toujours plus de capacité.

Stockage numérique : La démesure ?


Le saviez-vous ? Si l’on avait dû imprimer la quantité de texte qui remplit l’actuelle capacité record de 1 To qu’affiche le dernier disque dur d’Hitachi, il aurait fallu abattre… 50 000 arbres ! Dans le même ordre d’idée, l’université de Berkeley publiait jusqu’en 2003 un rapport sur les quantités d’informations engendrées chaque année par l’ère numérique et illustrait les capacités de stockage par leur équivalent papier. Ainsi, 2 ko représentent une feuille A4 de texte, 1 Mo un livre de poche, 100 Mo des livres illustrés empilés sur une hauteur de un mètre, 1 Go une camionnette remplie de livres, 2 To une grande bibliothèque universitaire, 200 Po (pour Peta-octets) la totalité de ce qui a été imprimé sur Terre en 2003, 5 Eo (pour Exa-octets) la retranscription écrite de la totalité de tous les mots que les êtres humains ont prononcés depuis qu’ils savent parler. Sera-t-on bientôt suffisamment rassasié pour que les disques durs n’aient plus à augmenter en capacité ? Comme le souligne un analyste du Gartner présent au CES : « Une plus grande capacité ne permet pas que de stocker plus de documents, elle permet surtout de stocker des documents plus riches ».





ToIP
Réduire
Comment transformer votre PC en téléphone ?

La téléphonie est un service critique : les communications doivent être fiables, sécurisées et hautement disponibles. Aujourd’hui, de manière logicielle, vous pouvez facilement transformer votre PC en téléphone tout en rencontrant ces exigences, et bien plus encore. Des logiciels qui permettent de téléphoner gratuitement pratiquement partout, c’est le miracle de la téléphonie sur Internet.


Pourquoi vouloir transformer son PC en téléphone ?

Les services de voix sur réseau IP (VoIP) fournissent des applications de télécommunications téléphoniques longues distances moins coûteuses que celles proposées par les compagnies téléphoniques traditionnelles. Rappelons qu’à l’heure actuelle téléphoner avec son mobile de l’étranger reste un luxe : il vous en coûtera souvent plus de 1 euro la minute… À ce propos, la Commission européenne estime que plus de 140 millions de personnes sont concernées, ce qui représente un marché de 8,5 milliards d’euros. (Pour en savoir plus, nous vous conseillons de vous rendre sur le site de la Commission pour y consulter le document « Proposition de réglementation sur l’itinérance », http://ec.europa.eu/information _society/activities/roaming/index_fr.htm).
D’autre part, la voix sur IP vous offre de très nombreuses possibilités : vous pouvez personnaliser votre sonnerie, utiliser votre PC comme répondeur, consulter l’historique de vos communications, coupler votre logiciel de messagerie à votre logiciel de communication, etc. Les possibilités sont très vastes : conversation textuelles temps réel (chat), messagerie instantanée (IM), état de présence, encryptage des communications, mise en attente, transfert d’appel, mode conférence, personnalisation de l’apparence du logiciel, touches de raccourcis, etc.
Certains prestataires de services de téléphonie sur Internet vous permettent d’appeler les abonnés au téléphone traditionnel via un adaptateur de téléphone analogique, c’est-à-dire un matériel ATA (appelé plus communément « BOX »). Vous pouvez alors y connecter des combinés téléphoniques classiques sans passer par l’intermédiaire d’un PC. La plupart du temps, ce type de matériel est d’ailleurs fourni avec l’abonnement (Free, Wanadoo, Tele2, Noos, Neuf, AOL, Net2Phone, etc.). Vous pouvez aussi faire le choix de téléphoner de PC à PC, ou encore de PC vers un téléphone traditionnel, en utilisant un logiciel spécialisé baptisé softphone (SOFTware telePHONE). Il s’agit de programmes informatiques tournant sous Windows et Linux, et qui utilisent la liaison haut débit pour transformer votre PC en téléphone. Pour qu’ils fonctionnent, vous devez posséder un microphone et des haut-parleurs, ou bien un combiné casque-micro. Les principaux protocoles utilisés pour l’établissement de connexions en voix sur IP sont H.323 (Ekiga), IAX (Asterisk), SIP (X-LITE), et Jingle (Jabber). Nous allons vous présenter ci-dessous ce qui se fait de mieux à l’heure actuelle en matière de softphone.


Softphone et prestataire de service

X-LITE, de la société CounterPath, est un softphone conçu pour fonctionner avec un prestataire de service tel que Free, Vonage (http://francais.vonage.ca/), ou encore BroadVoice (http:// www.broadvoice.com/). Il est multi plate-forme (Linux, Mac et Windows) et vous disposez des journaux des appels émis et reçus.
Vous pouvez le télécharger à l’adresse http://www.xten.com/-index.php?menu=download.
Sa fenêtre principale ressemble à un téléphone cellulaire. La première étape sera d’activer le service. Avec Freephonie, par exemple,    service de téléphonie nomade de Free, qui s’appuie sur SIP, vous devez vous rendre au menu « Gestion de mon compte SIP » dans la console de gestion des services téléphoniques. Une fois le service SIP activé, vous pouvez installer X-LITE. Vous devez ensuite vous rendre  sur le bouton « options » pour visualiser le menu principal. Double cliquez sur « system settings », et sur « SIP Proxy ». Éditez votre profil en indiquant votre nom (Display Name), votre numéro de téléphone Freebox (votre username), votre « Authorization user » (de nouveau votre numéro de téléphone Freebox), votre mot de passe (celui qui a été défini par le biais de la console), puis le domaine (freephonie.net), et enfin le nom du proxy (freephonie.net).

X-LITE vous indiquera alors qu’il est connecté et vous proposera de rentrer un numéro de téléphone. Nous vous conseillons d’utiliser un casque plutôt que des haut-parleurs, afin d’éviter le phénomène d’échos. Si vous ne trouvez pas la qualité de transmission suffisante, nous vous invitons à modifier l’ordre de priorité de vos paquets en allant la modifier au niveau du routeur (garantie de qualité de service QoS : lire « encadré services différenciés et jitter »).

Pour installer X-LITE sous Linux, vous devez disposer au préalable d’un environnement graphique (KDE / GNOME / etc.).

wget http://www.xten.com/download/X-Lite_Install.tar.gz
tar -vzxf X-Lite_Install?.tar.gz
cd xten-xlite

L’exécutable se nomme xtensoftphone, et vous pouvez le lancer en saisissant ./xtensoftphone.
Soulignons qu’il est possible de réaliser une connexion simultanée à plusieurs, en utilisant des fournisseurs de services de téléphonie IP différents : autrement dit, vous pouvez émettre et recevoir des appels via plusieurs fournisseurs, pour optimiser le coût de vos communications sortantes, et entreprendre des conférences.


Skype

Skype est l’application cliente VoIP dominante. Il s’agit d’un softphone un peu particulier dans le sens où il utilise un réseau P2P ; le service vocal n’est pas centralisé comme avec Yahoo ou Messenger. Vous pouvez vous abonner à des services payants : SkypeOut et SkypeIn, en vue de passer ou de recevoir des appels, vers ou en provenance de postes téléphoniques classiques. Skype fonctionne sous Windows, Mac et Linux. Le slogan de skype est « It just works » – ça marche.

Si vous tenez un blog et que des visiteurs veulent entrer en contact avec vous via skype, c’est possible : ils pourront cliquer sur un lien de votre page. Le logo Skype Me est fourni par skype.


Comment mettre en place un bouton Skype Me sur votre blog ?

1) Récupérez le code html pour un bouton sur le site de skype (http://www.skype.com/intl/fr/share/buttons/)

<!--
Skype ‘Skype Me™!’ button
http://www.skype.com/go/skypebuttons
-->
<script type="text/javascript" src="http://download.skype.com/share/skype
    "buttons/js/skypeCheck.js"></script>
<a href="skype:noebarat?call"><img
"src="http://download.skype.com/share/skypebuttons/buttons/call_green_white
"_153x63.png" style="border: none;" width="153" height="63" alt="Skype
"Me™!" /></a>

2) Collez le code html dans votre note.
3) Sauvegardez, publiez et rafraîchissez votre blog : vos amis, correspondants peuvent maintenant skyper avec vous.




Un des grands avantages de Skype est de pouvoir être installé sur plusieurs machines différentes : vous pouvez l’avoir au bureau et chez vous. Si un correspondant tente de vous joindre, vous pourrez le faire de n’importe quel poste client. Sous Windows, il existe une série d’add-on intéressants.
KishKish Lie Detector est un détecteur de mensonges qui se dit capable de détecter les pics de stress dans la voix de l’interlocuteur, SAM (Skype Answering Machine), un add-on de type répondeur qui peut enregistrer des messages de vos correspondants (http://www.kishkish.com/downloads.php). V4S est une alternative gratuite à la boîte vocale de Skype payante. Avec cet addon, vous transformez votre PC en un répondeur ce qui permet de ne plus rater aucun appel entrant passé en votre absence (http://www.orb.com/fr/skype/). Enfin, Kodak Photo Voice est un add-on permettant de partager des photos tout en dialoguant (http://www.kodakgallery.com/photovoice).
Contrairement aux autres technologies de VoIP, Skype n’est pas affecté par un firewall, ou un proxy – du moment que vous pouvez naviguer sur Internet, vous pourrez utiliser skype. En outre, les données sont cryptées. Nous en sommes à la version 3 pour la plate-forme Windows, mais non pour Linux qui ne dispose pas encore de webcam…
Skype n’est disponible dans aucun dépôt logiciel d’Ubuntu. Par conséquent, pour l’installer sous Ubuntu 32 bits, vous devrez ajouter un dépôt (gksu gedit /etc/apt/sources.list) :

deb http://download.skype.com/linux/repos/debian/ stable non-free

Vous devez ensuite recharger la liste avec apt-get update. Vous pouvez maintenant installer la version 1.3.0.53 (la dernière au moment de rédiger ces lignes). Si Skype est lent à démarrer, vous pouvez désactiver « dbus » (skype –disable-dbus) ; mais nous vous le déconseillons. Il est possible aussi d’appeler un correspondant en ligne de commande (option /callto:<utilisateur de skype ou numéro de téléphone>). Vous pouvez également le lancer en mode réduit (/minimized), ou encore empêcher l’affichage de l’écran de splash (/nosplash).


Le service Google Talk

Google Talk permet de transmettre la voix mais contrairement à d’autres outils du même acabit il est simple et léger. Il utilise un protocole libre, jabber, ce qui permet de l’ouvrir au dialogue avec d’autres utilisateurs enregistrés sur d’autres serveurs de type Jabber. Entre parenthèses, il est désormais possible d’ouvrir un compte Google sans passer par un système d’invitation préalable. Le client officiel n’est disponible que pour Windows, mais les Linuxiens peuvent aussi se connecter à Google Talk par l’intermédiaire d’autres client Jabber, tels que Gaim ou Kopete. Ajoutons que Google Talk passe facilement les pare-feu : il est possible en effet de se connecter au port 443 du serveur talk.google.com, plutôt qu’au port 5223. Un client Google Talk disponible sous Windows et Linux est WengoPhone de la communauté OpenWengo. Il s’agit d’un logiciel libre sous licence GNU GPL qui permet, tout comme Skype, de téléphoner gratuitement à partir de son ordinateur vers d’autres utilisateurs (au standard SIP), mais aussi vers des téléphones traditionnels. WengoPhone est compatible avec de nombreux services de messagerie instantanée, comme MSN Messenger, Google Talk, Jabber, Yahoo! Messenger, AIM, iChat, grâce à la bibliothèque libgaim de Gaim.


Gizmo

Gizmo est un logiciel multi plate-forme pour Mac OS X, Windows et Linux (http://www.gizmoproject.com/intl/fr/). Ce projet est un peu à part dans le sens où il n’est pas multi-IM. Il s’agit d’un projet gratuit, mais non libre, qui est financé par Michael Robertson – aujourd’hui à la tête de Mp3tunes.com.
Gizmo tient la comparaison avec Skype. Il s’agit aussi d’un client instantané de messagerie et de VoIP, mais il comporte certains avantages par rapport à la version GNU/Linux de Skype. Nous pensons d’abord au bouton d’enregistrement instantané, qui vous permettra de facilement podcaster plus tard un appel. L’interface est mieux finie que celle de Skype sur Linux qui commence à dater, et vous disposez d’une fonction « voicemail » très intéressante (voix vers courrier électronique).


Ekiga sous Gnome

Ekiga (http://www.ekiga.org/) est un excellent logiciel dont nous ne pouvons faire l’impasse dans cet article. Le seul problème (pour les utilisateurs Windows) est qu’il n’est disponible que sous Linux en version stable. Cependant, une version de développement est disponible pour Windows pour test (http://snapshots.seconix.com/win32.php).
Si vous désirez vous lancer dans l’aventure, vous devez télécharger ekiga.zip et l’environnement runtime de GTK+ 2 (http://gimp-win.sourceforge.net/stable.html), ainsi que le runtime SDL-1.2.11 (http://www.libsdl.org/download-1.2.php). Pour que cela fonctionne vous devrez déplacer le fichier SDL.dll dans le dossier d’Ekiga qui contient l’exécutable Ekiga.exe.

Ekiga est en fait la nouvelle appellation de « GnomeMeeting ». Ce logiciel est libre et exploite les protocoles H323 et SIP. Ces possibilités sont nombreuses : inscription des contacts dans un annuaire LDAP, conférences vidéo à plusieurs utilisateurs, appel et réception d’appels de téléphones fixes ou de mobiles, en s’inscrivant à un fournisseur de service SIP payant, mais – et c’est important de le souligner – qui est laissé au choix de l’utilisateur ! Ekiga fournit également une messagerie instantanée (IM) et il est compatible avec windows Messenger (via le menu « Configurer Messenger pour Ekiga »), wengo et gizmo.

Ekiga est capable d’utiliser STUN (lire l’encadré) et ne devrait pas poser de problème, même si vous êtes derrière un pare-feu. Au lancement, un assistant de configuration s’exécutera et vous indiquera la marche à suivre pour obtenir la meilleure connectivité – comme la redirection des ports. Pour qu’Ekiga fonctionne, vous devez posséder un compte SIP, le but du jeu étant de s’inscrire dans un annuaire : il est possible d’en créer un gratuitement dès la première exécution. Une fois inscrit au service gratuit ekiga.net, vous avez accès à un numéro d’écho pour tester le fonctionnement et la qualité de votre ligne (sip:500@ekiga.net).



Services différenciés et jitter
Certains obstacles peuvent entraver la bonne qualité d’une communication VoIP. Les paquets de données VoIP sont constitués de paquets UDP qui transportent chacun quelques dizaines de millisecondes d’information sonore. Parfois, un paquet n’arrive jamais, ou est abandonné, ce qui peut provoquer une coupure ou une interruption. En outre, certains paquets arriveront dans le désordre : c’est le phénomène dit de « jitter », ou de fluctuation de paquets. La voix demande peu de bande passante, mais des temps de transmission courts et un jitter minimal. Votre routeur doit pouvoir interpréter les informations de QoS que vous lui indiquerez. Il existe plusieurs modèles de QoS : Best Effort, IntServ (les applications demandent au réseau des ressources), et DiffServ (services différenciés : définition des ressources à la demande selon le type de flux). Sous Linux, vous pouvez activer DiffServ en encodant dans un terminal :

iptables -t mangle -A POSTROUTING -p tcp --dport 5004 -j DSCP --set-dscp x


En effectuant cette opération vous demandez d’utiliser le POSTROUTING pour modifier directement le champ dscp (DiffServ Code Point) afin de définir une priorité haute n°x (QoS de type DiffServ). Le principe de DiffServ est d’accorder un traitement particulier aux paquets le nécessitant ; mais pour cela il faut évidemment que les routeurs à travers lesquels transitent ces paquets puissent interpréter ces informations.




Citons quelques softphones supplémentaires

• Gaim (http://gaim.sourceforge.net/), logiciel libre sous licence GPL, disponible sous Linux et Windows, est capable depuis la version 2 (encore une bêta) d’établir une connexion audio/vidéo. Ce client de messagerie instantanée supporte de nombreux protocoles (IRC, Jabber, ICQ et AOL,MSN Messenger, Novell GroupWise, etc.). Un projet qui en dérive est PhoneGaim issu du système d’exploitation Linspire (http://www.phonegaim.com/).

• Linphone est un logiciel voix sur IP libre, fonctionnant sous Linux et Windows. Il se trouve sous licence GPL, utilise le protocole SIP et est capable de gérer la vidéo (codecs H263-1998, MPEG4 et theor) (http://www.linphone.org/).

• Kphone est un logiciel libre sous licence GPL de téléphonie compatible SIP. Il s’agit d’un logiciel KDE fonctionnant sous GNU/Linux (http://sourceforge.net/projects/kphone/).
• Jabbin (http://sourceforge.net/projects/jabbin) est un fork de Psi écrit en Java. Il est multi plate-forme et implémente un protocole qui se base sur Jingle (Jabber).

• Paltalk est un logiciel qui fonctionne comme ICQ : vous devez vous enregistrer sur un serveur centralisé Paltalk à la première exécution, puis vous demandez à vos connaissances de faire de même. Ensuite, il suffit de cliquer sur l’icône représentant un téléphone pour rentrer en communication vocale ou/et vidéo avec un de vos contacts (http://www.paltalk.com/).


Communications SIP vers téléphones fixes

Certains fournisseurs d’accès SIP vous permettent d’entrer en communication téléphonique avec un téléphone fixe ou mobile à une tarification très avantageuse, voire gratuitement. Par exemple avec VoipBuster, et pour 10 euros par an, vous pouvez téléphoner gratuitement un peu partout dans le monde, France incluse. Ou encore, si vous avez un abonnement ADSL chez free, vous pourrez téléphoner gratuitement vers les fixes en France métropolitaine, mais aussi vers les fixes de Guadeloupe et de Martinique.

Sur le site de VoipBuster, vous pouvez télécharger un exécutable pour Windows qui ressemble à Skype – une version française du logiciel a été baptisée NetAppel. Avec Linux, le plus simple est de configurer Ekiga, ou un autre logiciel compatible SIP présenté dans cet article. Vous devez d’abord ajouter un compte (Édition ? Comptes ? Ajouter), que vous pouvez nommer « VoipBuster ». Le protocole sélectionné sera SIP, le « registar » étant ici « sip1.voipbuster.com ». Ensuite, vous devez encoder correctement votre login (obtenu sur le site de VoipBuster), ainsi que votre mot de passe. Ouvrez maintenant le menu « plus d’options », et inscrivez-y le domaine « voipbuster.com ».

Maintenant, comme expliqué dans la section Ekiga, si vous n’avez pas effectué une redirection de ports, et que vous êtes situé derrière un NAT, dirigez-vous vers « Édition > Préférences > Paramètres SIP » et indiquez comme proxy « sip1.voipbuster.com ».

Vous pouvez désormais tenter un appel en n’oubliant pas d’indiquer l’international (0033…). Comme vous pouvez ajouter plusieurs comptes SIP, si votre compte VoipBuster n’est pas celui par défaut, vous devrez le spécifier à chaque appel : sip:0033NumeroDestinataire-France...@sip1.voipbuster.com.  Remarquez que si vous utilisez Wengo comme fournisseur externe SIP, vous pourrez obtenir un numéro de téléphone virtuel.



Le protocole standardisé STUN

STUN signifie « Simple Traversal of UDP through NATs ». Il s’agit d’un protocole standardisé permettant à un client (UDP) situé derrière un routeur NAT de découvrir sa propre adresse IP publique. Pour que différents clients Ekiga puissent communiquer entre eux, vous pouvez aussi utiliser Avahi (http://avahi.org/). Avahi sera utilisé pour découvrir le service VoIP sur votre réseau local. Vous devrez l’installer sur chaque ordinateur client Ekiga et ouvrir le port UDP 5353 sur chacun de ces ordinateurs ; ce qui donne sous Ubuntu :

sudo apt-get install libnss-mdns zeroconf avahi-daemon
gksudo gedit  /etc/nsswitch.conf

L’étape suivante sera de modifier la ligne « hosts: » files dns mdns, puis de lancer le démon au démarrage : gksudo gedit /etc/default/avahi-
daemon, en indiquant AVAHI_DAEMON_START=1 ; enfin, tapez sudo /etc/init.d/avahi-daemon restart pour exécuter le démon. Pour entrer en contact avec les autres clients du réseau local, vous devrez aller dans le carnet d’adresse d’Ekiga et double-cliquez sur « contacts à proximité ».




Un pont plus loin avec FreePBX (Asterisk), l’outil ultime

La plupart des logiciels dont nous avons parlé s’utilisent de manière très simple et s’installent tout aussi facilement. Cependant, si vous avez à votre disposition un PC du genre pentium II, et que vous avez une heure « à perdre », nous vous conseillons vivement d’installer Tribox – la nouvelle appellation d’Astersik@home déjà présenté en détails dans l’Informaticien –, une distribution Linux gratuite, qui s’installera sur le disque dur (en effaçant toutes les données). Si vous êtes utilisateur Windows, soulignons qu’il est possible d’utiliser le logiciel TrixBox sans connaissance préalable de Linux. Vous obtiendrez de cette manière un PC dédié aux communications téléphoniques. Le logiciel freePBX (ex Asterisk) tournera sur cette machine, la transformant en une passerelle PBX (private branch exchange) VoIP / téléphonie classique. La qualité sera au rendez-vous – un annulateur d’écho est inclus –, et le logiciel reconnaîtra de multiples protocoles (SIP, l’IAX, H323, ADSI).

Cette distribution est de plus en plus utilisée dans les petites et moyennes entreprises. Le but du jeu est de gérer gratuitement les appels VoiP internes et de passer des appels vers l’extérieur au moindre coût. Par exemple, suivant un horaire pré-établi, le PBX relaiera un appel sur votre fixe ou sur votre mobile. Vous pouvez aussi rediriger un appel en tenant compte du numéro appelant ou à appeler. Autrement dit, il est possible d’orienter les appels sortants en fonction du numéro pour choisir la ligne la moins chère pour cette destination !

Pour tester votre central téléphonique fraîchement installé, vous pouvez utiliser des clients softphones SIP, ou encore acheter un adaptateur du style Linksys PAP2 et y connecter des téléphones DEC sans fils. Pour configurer le PBX, il vous suffira de vous connecter à l’aide de votre navigateur sur l’adresse IP de celui-ci, et vous pourrez ainsi accéder à toutes les fonctions d’administration.

 
En conclusion

En tant qu’informaticien, il serait dommage de passer à côté de la téléphonie sur Internet. Nous vous recommandons Ekiga ou Wengophone, tout en suivant l’évolution d’IAX.

IAX ? Nous n’en parlons que maintenant, car il s’agit d’un Softphone pour Firefox. Il peut s’utiliser en même temps que FreePBX, ou encore être utilisé conjointement avec un fournisseur d’accès SIP comme voipbuster (http://moziax.mozdev.org/index.html). En matière de VoIP, tout évolue très vite. Bientôt, il sera aussi naturel de passer un « coup de fil » que de naviguer, et le tout sera intégré dans un même navigateur. Bientôt ? Non, il s’agit déjà d’une réalité…


Machine physique ou virtuelle
Pour la machine physique, la configuration matérielle minimum nécessaire est un Pentium II avec 256 Mo de Ram, 10 Go de disque dur, une interface réseau et un lecteur de CD-Rom – qui ne servira que lors de l’installation initiale, de même que le clavier et la souris. Cependant, il est aussi possible d’employer une machine virtuelle VMware (sous Windows par exemple). Une telle machine virtuelle est téléchargeable à l’adresse http://www.vmwarez.com/2006/06/new-asteriskhome-trixbox-10-virtual.html. N’oubliez pas de rediriger les ports de votre routeur (UDP 5004-5082 pour SIP, 10001-20000 pour RTP, 4569 pour IAX) vers la machine physique ou virtuelle.





Edito
Réduire
L’informatique : l’oubliée de la campagne

Si Internet et les nouvelles technologies sont au premier plan des outils de campagne des candidats à l’élection présidentielle, comme en témoigne notre reportage à découvrir en page 10, le rôle des technologies dans la société de l’information est en revanche de notre point de vue très en retrait.

newstef26526_Copier5.gifFaut-il répéter encore et encore quelques évidences que nos aspirants à la présidence de la République ont tendance à oublier ?… Le différentiel de croissance entre les pays européens et les États-Unis provient pour plus de la moitié des technologies de l’information et il en va de même pour les emplois, particulièrement qualifiés.
J’entends les cris à propos de nos jeunes et brillants cerveaux qui partent sous d’autres cieux. Sait-on que les technologies de l’information figurent parmi les principaux récipiendaires de ces talents ? Sait-on également que le nombre d’informaticiens à recruter pour la seule année 2007 est de 150 000 personnes, selon des données fournies par le Syntec. Qu’attendons-nous pour accentuer la formation en ce domaine ? Que l’off-shore soit la règle absolue ?, alors qu’il reste encore marginal dans notre pays…
Nos confrères du site lesjeudis.com indiquaient récemment que « 40 % des entreprises américaines se droguent à l’offshore » avec une destination qui accapare 80 % de ce marché : l’Inde. Le cabinet Deloitte Research précise que deux millions d’emplois vont se déplacer des pays occidentaux vers l’Inde d’ici à l’année prochaine.
Toujours dans les jeudis.com, Ivan Beraud, secrétaire général du syndicat Betor Pub CFDT, reste toutefois très mesuré sur les conséquences pour la France : « Depuis 1998, on entend parler d’informaticiens indiens qui viendraient envahir le sol français et déstabiliser le marché national. Rien de cela n’est arrivé et pour une raison simple : les informaticiens indiens sont très bien payés dans leur pays et ont un niveau de vie relativement supérieur aux Français... » Il n’y aurait donc pas péril en la demeure. Tant mieux, mais pourquoi ne pas en profiter pour mieux développer ce secteur dans lequel des dizaines de milliers de jeunes souhaitent travailler et qui offre des perspectives économiques très importantes au plan mondial.
Au-delà de quelques généralités de bon aloi, notamment autour du logiciel libre, les candidats se sont très peu exprimés sur un sujet que nous estimons être le meilleur pour dynamiser la croissance et réduire le chômage. Ceci est vraiment dommage et montre malheureusement que l’on fait encore trop peu de cas de ce secteur. Il reste environ un mois pour que cela change. Nous nous y emploierons et vous demandons de faire de même.
    
    Stéphane Larcher
Sommaire
Réduire
MAGAZINE

• PRéSIDENTIELLES : La face cachée de la campagne sur le net


DOSSIER HOTLINES

• LES BONS PLANS pour la hotline : Comment organiser votre support


RÉSEAUX & SÉCURITÉ

• TELEPHONIE IP : Après le PABX, l’IP Centrex annonce-t-il la fin de l’IPBX  ?

• ENTREPRISES : Quelles économies attendre de la téléphonie IP ?

• NGN : Réseaux de nouvelle génération : Les promesses de l’IMS ou IP Multimedia System

• BONNES FEUILLES : Haro sur les failles de sécurité !


SERVEURS & SYSTÈMES

• SUN Solaris 10 : A la recherche d’un nouveau modèle

• STOCKAGE La mémoire Flash est-elle l’avenir des disques durs ?


LOGICIELS & APPLICATIONS

• LINUX JOURNAL : Le langage D, un puissant langage managé et compilé


POSTE DE TRAVAIL

• PRATIQUE : Comment transformer votre PC en téléphone ?

        
ITINÉRAIRES

EMPLOI
• Des informaticiens pour demain :
Le Syntec invite les jeunes à changer le monde !
• Codeur.com, une place de marché pour les freelances

METIERS
• Du CAP d’ajusteur à la gestion des performances

LIVRES – En vitrine ce mois-ci : tout savoir sur une méthodologie de test et sur le développement
du processeur Itanium
p.1
Réduire
La face cachée de la campagne sur le Net

C’est un fait maintenant établi. Les Français se passionnent pour la campagne présidentielle. Les émissions politiques à la télévision et à la radio enregistrent des records d’audience. Les journaux voient leurs ventes progresser. Et plus encore, Internet est devenu l’un des principaux médias d’information (ou de désinformation) et plusieurs milliers de sites traitent de la campagne électorale. Près de la moitié des Français ont d’ailleurs indiqué qu’ils utiliseraient la toile pour se faire ou parfaire leur opinion. Présentation de la net campagne et tour d’horizon des sites des trois principaux candidats.

Qu’on le veuille ou non, les Américains ont encore un temps d’avance sur l’utilisation des nouvelles technologies et les campagnes électorales ne font pas exception à la règle. Les élections de 2000 avaient vu fleurir pour la première fois les sites de campagne. En 2004, ce sont les blogs qui ont été plébiscités. Et en 2006, pour les élections de mi-mandat, la vidéo sur Internet a joué un rôle considérable, parfois au détriment de certains candidats. Ainsi, le sénateur de Virginie, Georges Allen, qui avait traité de macaque son adversaire. La scène avait été filmée puis relayée sur Youtube. La vidéo a suscité un tollé et le sénateur républicain a été battu de quelques milliers de voix. Anecdotique ? Certainement pas lorsque que l’on sait que la Virginie est l’un des deux États qui a fait basculer le Sénat en faveur du camp démocrate.

En France, la même chose s’est produite. Les paroles de Ségolène Royal sur les professeurs ou les propos d’Alain Duhamel en faveur de François Bayrou devant les étudiants de Sciences-Po sont deux exemples parmi d’autres.

Un fait est cependant avéré. Internet joue un rôle déterminant dans la campagne et les candidats en ont pris la mesure. Lors du débat de censure en mai 2006, François Bayrou déclarait d’ailleurs : « Il y a un peuple de citoyens pour qui internet, par exemple, est devenu le terrain de débats, de passions, d’informations parfois insuffisantes, de création partagée. On ne gouverne pas ce peuple comme un peuple de sujets. »

Pourtant, certains candidats font encore comme si Internet n’existait pas ou s’il n’était qu’un média passif à l’instar de la télévision. Les sites sont beaux, documentés, ouverts aux commentaires mais là n’est pas le plus important. La bataille ne se joue pas seulement sur les sites officiels des candidats, pas non plus uniquement plus sur les sites des principaux médias (lesquels voient cependant leur fréquentation s’envoler) mais bien sur les dizaines de milliers de sites et blogs de cette population qui n’accepte plus que l’information lui soit prémâchée. Les internautes veulent discuter, commenter, farfouiller. À cet égard, il est intéressant de voir le succès du site Agoravox qui propose à tout un chacun de devenir journaliste. De même, les sites de détournement tels brunocandida ou polemixetlavoixoff rencontrent un succès sans précédent. Preuve, s’il en était besoin, que les Français ont besoin et envie de s’amuser. De même, le succès du site commentonfait.fr créé par Alexandre Jardin qui demandent aux candidats de s’engager sur le « comment » et non plus seulement sur le « quoi ».



La chaîne de Saint François
Après les achats de mots clés par les candidats, après les SMS pour inviter les militants à participer à tel ou tel meeting, voici maintenant le retour de la chaîne. Le quotidien le Monde et l’hebdomadaire le Canard Enchaîné s’en faisaient l’écho le 14 mars dernier. Évidemment, tous les candidats ont eu droit à la même blague mais d’après le Canard, l’initiative anti-bayrou proviendrait du parti socialiste. On peut découvrir cette info accompagnée de tous les commentaires positifs ou acides sur le site suivant : http://carnetsdenuit.typepad.com/ carnets_de_nuit/2007/03/la_chane_de_sai.html. Extrait : « Ceci n’est pas un spam, si cette lettre t’arrive, ce n’est pas par hasard, rien n’est dû au hasard. Marie P. a voté Bayrou en 2002, deux jours plus tard, sa maison a brûlé et tous ses enfants sont morts de combustion spontanée, Pierre F. a voté Bayrou lui aussi : il s’est noyé dans la mare aux canards de sa ferme, on n’a jamais retrouvé son corps, Catherine K. a voté UDF aux dernières législatives : une semaine plus tard, elle a dû se faire poser un anus artificiel, Joseph D. a pensé à voter Bayrou. Depuis, il purge une peine à vie dans les prisons turques. Le pire, c’est qu’il avait pris un billet d’avion pour Namur, il a été victime d’une erreur à l’embarquement. Ne VOTE PAS BAYROU, ou tu finiras comme eux. Forward ce message à 10 personnes que tu aimes ou tes dents tomberont. Si tu ne votes pas Bayrou, tout ira bien, tout le monde te trouvera sexuellement désirable, tu n’auras jamais de cancer du foie ou des poumons et tu gagneras plein d’argent.»




Le Non à la constitution

L’influence de l’Internet « non officiel » n’en est pourtant pas à son coup d'essai. En effet, il suffit de voir les résultats du référendum 2005 relatif au traité constitutionnel européen. Si la quasi-totalité des médias et du personnel politique se prononçait en faveur de ce traité, la planète Internet voyait se multiplier les sites en faveur du Non. Une étude réalisée par Netpolitique montrait que le rapport était de 66 % de sites en faveur du non contre 34 % en faveur du oui. « De plus, cette communauté des sites du non est à la fois plus riche et plus solidaire, un travail de balisage de ce terrain l’ouvrant à la navigation a été réalisé facilitant ainsi la circulation à l’intérieur des sites du non. La distribution transversale de liens hypertextes entre différentes ressources donne donc ce caractère fédératif et très dense au camp du “non” sur le Web », indiquait l’un des responsables de l’étude.

Au mois de février, l’Ifop a réalisé une enquête sur l’usage d’Internet par rapport à la campagne présidentielle : 47 % des internautes interrogés ont déclaré utiliser la Toile pour y rechercher des informations concernant l’actualité politique, soit une progression de 7 points par rapport à l’enquête précédente. Plus surprenant est le lien avec l’âge. En effet, l’intérêt est d’autant plus manifeste que la population est âgée. Ainsi, si les 18-24 ans ne sont que 38 %, la courbe croît régulièrement avec l’âge des internautes pour atteindre 68 % chez les plus de 65 ans. De même, l’Ifop a observé des variations selon les catégories socioprofessionnelles : de 41 % pour les ouvriers connectés, jusqu’à 53 % chez cadres et professions libérales.

Internet est désormais reconnu comme l’un des principaux médias de la campagne électorale. Peut-on parler de 5e pouvoir, comme le pense notre confrère Thierry Crouzet, qui a écrit un ouvrage portant ce titre ? Peut-être pas encore, mais il est évident que le rôle de la Toile est aujour
d’hui considérable. L’est il trop ? Certains le pensent car, sur certains sites, les âneries les plus terribles côtoient les analyses les plus fines, le tout sans le filtre des journalistes professionnels dont le métier est justement d’essayer de mettre un peu d’ordre dans le fatras médiatique qui est déversé de toute part. Dans les pages suivantes, nous vous proposons de découvrir – de l’intérieur – les sites Internet des trois principaux candidats. Quelles plates-formes ? Quels logiciels ? Quel trafic ?



Le top du web
Xiti Monitor a étudié 67 sites Web d’actualités pour analyser l’écoute des principaux candidats à la présidentielle sur le Net. Grande gagnante, confirmant sa place des semaines précédentes : Ségolène Royal. Entre le 16 janvier et le 25 février derniers, sur l’ensemble des visites générées par les recherches associées à ces quatre candidats, Ségolène Royal s’adjuge 50 visites sur 100, devant Nicolas Sarkozy (32 visites) et François Bayrou (11 visites). Jean Marie Le Pen émerge à peine avec 5 visites. Les motifs d'intérêt sont d’abord la femme politique en général avec 41,8 % des recherches sur Ségolène Royal. Son programme vient loin derrière avec 15,8 % des requêtes au coude à coude avec sa vie privée et son patrimoine ! Les priorités sont les mêmes sur Nicolas Sarkozy. Les recherches concernant François Bayrou semblent moins ciblées et beaucoup d’internautes s’interrogent sur l’homme qu’il est. Viennent ensuite son programme et les actualités de sa campagne. En recherche unique, il arrive largement en tête avec 61,8 % des requêtes. Jean-Marie Le Pen a agité, lui, le réseau des réseaux du fait de sa difficulté à rassembler les signatures nécessaires à sa candidature officielle.



sarko.jpg

bayrou.jpg

sego.jpg
p.2
Réduire
www.sarkozy.fr
NS-TV : une télé de campagne

Tout en vidéo sur le site officiel du candidat de l’UMP ! Pour suivre la campagne au jour le jour et les meetings en direct, comme si vous y étiez.

À l’heure du bouclage de ce magazine, le site du candidat Nicolas Sarkozy égrenait toujours, de manière peut-être un peu présomptueuse, le compte à rebours – au millième de seconde s’il vous plaît… – du temps qui nous sépare du soir du second tour, le dimanche 6 mai à 20 h, l’instant précis où sera dévoilé le nom du nouveau président de la République.
Cette animation en Flash annonce bien la couleur. Sur le site www.sarkozy.fr, le contenu, à base essentiellement de vidéos, se détourne de l’information textuelle. Bien forcé, on est sur la « NS-TV ». L’info ici est audiovisuelle. D’ailleurs le look sarkozy.fr n’est pas sans rappeler celui de Dailymotion, le leader des sites de partage de vidéos en ligne. Une connexion haut débit est donc indispensable pour profiter au mieux de ce site à haute densité d’images animées. Mais 2007 n’est pas 2002. Il y a cinq ans, on en était encore qu’aux débuts de l’ADSL. Aujourd’hui, une large majorité des internautes est équipée pour le haut débit.

Mis en ligne le 14 janvier, jour de l’élection de Nicolas Sarkozy comme candidat de l’UMP à la présidentielle, le site a connu immédiatement son record de fréquentation avec quelque 400 000 vidéos téléchargées en 48 heures. La télé Sarkozy était née dans le sillage de la désignation triomphale du candidat…


Un nouveau média à part entière

Le projet a été monté en l’espace de quelques mois. L’idée de la NS-TV est venue de François de la Brosse, un publicitaire de 57 ans, fondateur de l’agence Z, qui crée des sites Internet depuis une bonne dizaine d’années. Ami de longue date du couple Sarkozy, il a vendu au ministre-candidat un concept de nouveau média à part entière sur Internet, créé pour la campagne, producteur d’images qu’il peut fournir à d’autres médias. S’il est à l’origine du projet, François de la Brosse en partage la responsabilité opérationnelle avec l’écrivain à succès José Frèches. « Le développement du site a été réalisé en un mois et demi » précise Eric Walter, responsable des sites Internet de l'UMP. En raison de sa spécificité, il a été réalisé essentiellement en PHP / MySQL, contrairement au site u-m-p.org qui met en oeuvre le système de publication eZpublish. L'hébergement est assuré par la société Agarik implantée en région parisienne, à Courbevoie, ainsi que par un prestataire spécialisé pour l'hébergement des vidéos.
De l’image avant tout, donc, et ce dès l’ouverture de la page d’accueil qui déclenche l’un des clips du jour. La rengaine « Sar-ko, sar-ko… » des débuts a laissé la place à des séquences de quelques minutes : reportages sur le terrain avec le candidat et les porte-paroles en campagne, des témoignages de militants, de nouveaux soutiens… Mais priorité au direct : tous les meetings (en moyenne deux par semaine) en régions sont retransmis intégralement en « live ».

Au total, ce sont au moins une dizaine de nouvelles vidéos qui sont tournées (par deux équipes l'une au QG de campagne, l'autre sur le terrain), montées et mises en ligne chaque jour, des centaines au total, accessibles sous la forme d’un bouquet de quatorze chaînes thématiques : « Propositions », « Le jour Jeune », « Ils me soutiennent »… Autant de collections de séquences vidéo présentées chacune par ordre chronologique. La chaîne « International » fait régulièrement le point sur la campagne dans une dizaine de langues.
Les vidéos sont encodées en Flash dans un format 320x240 pixels. Elles peuvent être visionnées dans les meilleures conditions à partir du moment où l’on dispose d’un accès Internet à au moins 1 Mbit/s, le flux maximum demandé durant le streaming des vidéos. Pour les directs des meetings, en revanche, c’est un flux Windows Media qui est diffusé, de même que pour les séquences longues de tous les discours archivés.

Le site sakozy.fr reçoit en moyenne 35000 visiteurs chaque jour avec des pointes à 50000. Et la barre des 4 millions de vidéos visionnées a été franchie le 14 mars.


Pour les débats, c’est par là…
Sarkozy.fr est la principale vitrine Web du candidat Sarkozy. Mais d’autres sites soutiennent officiellement sur le net et la blogosphère le candidat de l’UMP.
• Le site des supporters : supportersdesarkozy.com. On peut y retrouver les équipes de militants ou les lieux des meetings les plus proches de chez soi, grâce aux cartes Google Maps.
• Le blog : www.debat-sarkozy.fr. Un lieu de débat assez classique sous forme de blog en dotclear animé par le spécialiste maison, Loïc Le Meur – par ailleurs directeur pour l’Europe de Six Apart. Il reçoit environ 5000 visites / jour.
• Sur Second Life, une permanence virtuelle a été ouverte début mars. Là encore, le maître des lieux est le conseiller spécial, Loïc Le Meur.





Bayrou.fr
La startup à forte croissance

À fond. Raphaël d'Assignies, le directeur de la Net campagne de François Bayrou est aujourd’hui comme l’ensemble des membres de l’équipe : au taquet ! Entre deux rendez-vous, il prend cependant le temps de nous recevoir avec courtoisie. « Je viens de rencontrer un nouveau prestataire pour repenser notre architecture, car cela commence à être trop juste », nous confie-t-il. De fait, le site et ses infrastructures ont été dimensionnés pour accueillir quotidiennement environ 30 000 visiteurs uniques d’ici à la fin du mois de mars. Notre entretien se déroule le 9 de ce mois, et la moyenne est d’ores et déjà à 40 000 et, comme la courbe des sondages, la croissance ne faiblit pas. Chaque visiteur consulte en moyenne 6 pages ce qui porte le nombre à environ 230 000 quotidiennement. « Le week-end, nous avons entre 28 000 et 30 000 visiteurs et, en semaine, nous dépassons désormais les 45 000 visiteurs certains jours avec une explosion du nombre de mails ou de connexions dès que François Bayrou intervient dans les médias. »
Poursuivons la découverte des chiffres : 35 000 mails ont été reçus en deux mois, 23 000 personnes sont inscrites à la newsletter, 10 000 personnes sont inscrites aux
24 0 000 commentaires qui ont déjà été publiés. 7 000 personnes ont souscrit pour participer à la Net Campagne et le nouveau site e-soutiens a, en quinze jours, déjà recensé 5 000 adhérents dont on peut voir la localisation en GoogleMaps. Enfin, 17 Téraoctets de contenu vidéo ont été servis en deux mois.
Pour animer le site, 12 personnes sont réparties en quatre pôles. La vidéo est le premier d’entre eux. Composé de trois personnes, il est en permanence en déplacement avec le candidat. Le pôle rédaction est également de trois personnes, qui alimentent le site. Le Web marketing (trois personnes) se charge de l’animation des blogs, de la modération des contenus. Il existe également une équipe chargée de répondre aux 700 à 1 500 mails que reçoit chaque jour le candidat. « François Bayrou répond directement à ses mails depuis des années. Mais là, devant le nombre il faut une équipe. » Enfin, les autres personnels s’occupent de la partie technique, sous la responsabilité d’Alessio Zurleni. « Pour réaliser ce projet, j’ai reconstitué une Web Agency en prenant des gens avec lesquels j’avais déjà travaillé. Il nous fallait des personnes très performantes et expérimentées, comme Alessio, car les délais étaient très courts », poursuit Raphaël d’Assignies. De fait, entre le cahier de charges et la mise en ligne, il s’est déroulé un peu plus d’un mois, vacances de fin d’année comprises.
Aujourd’hui, le site fonctionne sur une architecture distribuée composée de six serveurs sur plate-forme Linux Mandriva. Un serveur s’occupe des mails, trois sont dédiés au site, un site pour les dons et un site pour la partie e-soutiens. Concernant les logiciels, le site Bayrou s’appuie sur la base de données MySQL, et sur les langages PHP pour la partie e-soutiens et le back-office et Java pour le site, plus particulièrement OpenCMS pour la gestion des contenus. « Certaines parties sont composées de scripts JSP et d’autres sont du pur Java », nous explique M. d’Assignies. Concernant la bande passante du site Web, elle est actuellement de 100 Mbits, dont 40 réservés pour les transferts vidéo. « Au début, nous avions prévu 20 Mbits. Puis, devant l’afflux, nous sommes passés à 40 « burstable » à 100 ». Pour les campagnes d’e-mailing, l’outil utilisé est Campaign Commander de la société Email Vision. Enfin, la vidéo utilise le format Flash FLV.


Zoom sur l’architecture
 
L’architecture serveurs pour le site bayrou.fr repose sur trois machines. La première, disposant de 16 Go de Ram autour de deux microprocesseurs 64 bits AMD Opteron Dual Core 2,2 GHz, s’occupe de la base de données. Les deux frontaux sont servis par deux microprocesseurs Intel Dual Core XEON a 2 GHz et disposent de 8 Go de Ram. Sur la possibilité de poster directement des vidéos, il nous est précisé qu’une chaîne YouTube/bayrou existe mais elle n'est pas intégrée dans le site, « faute de temps », précise Raphaël  d’Assignies. Le temps est d’ailleurs l’ennemi numéro 1 de toute l’équipe. « On aimerait faire plus de choses mais c’est la course permanente et nous préférons nous concentrer pour faire correctement le mieux possible ce qui existe. » Pourtant, l’équipe peut compter sur ses bénévoles et c’est ainsi que le candidat Bayrou se retrouve sur Second Life avec ses tracteurs, grâce à l’enthousiasme de Margot, militante de 19 ans.
Un autre problème vient également s’ajouter : la sécurité. « Depuis, plusieurs jours nous avons constaté une nette hausse de choses anormales se passant sur les serveurs, notamment des tentatives d’intrusion. Il convient donc d’être vigilants. » C’est aussi à ce genre de détails qu’on mesure la notoriété croissance de la petite entreprise UDF en train de bousculer les grandes formations.


Le serial entrepreneur de l’UDF
Âgé de 34 ans, avocat de formation, disposant d’un 3e cycle de droit de l’informatique, le parcours de Raphaël d’Assignies aurait pu être un long fleuve tranquille si ce n’était sa volonté de « créer des boîtes ». Après une 1re société créée en 1999, autour de l’Open Source, et qui fera long feu, il en crée une seconde spécialisée dans la gestion informatique des HLM, puis une troisième qui commercialise des appareils de domotique. Interrogé sur ses projets après la campagne, il précise vouloir retourner à ses affaires. « J’ai déjà de nouvelles idées, en particulier autour de la domotique, pour mieux s’appuyer sur le communautaire et sur la vidéo. »




www.desirsdavenir.fr
Désirs d’avenir : l’esprit forum

À l’image de la campagne de Ségolène Royal, le site Désirs d’avenir, vitrine de la candidate sur Internet, fait la part belle à l’interactivité et au dialogue. Le site, et ses déclinaisons, laissent aussi une place de choix aux technologies Open Source.

Créé en février 2006, le site « Désirs d’avenir » se veut à l’image des différentes phases de la campagne de Ségolène Royal. Le site a démarré petit avec dix personnes pour s’en occuper et en modérer les débats. Sa philosophie de départ a été de faire appel à des PME plutôt qu’à une grande agence de communication intégrée. La structure du site se retrouve donc dans cette philosophie. De plus, il fallait en limiter les coûts et réaliser une plate-forme qui puisse profiter des apports des visiteurs ou contributeurs du site.


Un espace participatif

Développé en PHP, le site permet de fédérer les différents flux et contributions qui arrivent sur le site. L’architecture du site s’appuie aussi sur des outils Open Source. À ce jour, le site a reçu près de 135 000 contributions qui ont servi à l’élaboration du « pacte présidentiel » de la candidate socialiste. Une étude de l’Ifop confirme cette stratégie où la base de la candidate s’active et s’implique.
L’organisation du site reprend cette structure de forum. Le véritable moteur de « désirs d’avenir » est le logiciel Phorum, un soft de création et de gestion de forum Open Source, simple d’utilisation, peu consommateur de ressources serveurs. Il est construit autour d’une base de données MySQL ou PostGreSQL. Il est écrit en PHP. Il faut donc que les serveurs le recevant disposent de ces composants pour pouvoir fonctionner. L’outil offre la possibilité de créer différents forums et répertoires, ce qui donne cette impression de communautés que rend bien le site « Désirs d’avenir ». L’administration est assez complète et offre plusieurs alternatives de fonctionnement en termes de modération, de limitation d’accès aux membres, la possibilité d’attacher des fichiers images. Avec une bonne maîtrise du PHP, il est possible de modifier Phorum à sa convenance. Il est d’ailleurs possible de compléter le logiciel par des scripts et des plug-ins disponibles qui permettent de repousser certaines limites fonctionnelles du logiciel. Nicolas Pillon, de Niou Net, la société qui a développé le site, précise que la gestion de contenu a été réalisée sur mesure et que le site a été créé en mode collaboratif multi-site avec des équipes réparties entre La Rochelle, Marseille et Paris.
En faisant appel à des outils Open Source, l’investissement de départ n’a pas été bien élevé, même si aucun budget précis n’a été donné par les équipes de la campagne de Ségolène Royal. Seul chiffre public, l’hébergement des trois serveurs frontaux qui coûtent dans les 5 000 euros par mois.
La philosophie blog ou forum de « Désirs d’avenir » fait qu’il y a peu d’informations directes sur la candidate socialiste et peu de messages de directives, contrairement aux autres sites des candidats à l’élection présidentielle. La contrepartie est de laisser une liberté totale dans la création et la gestion des comités locaux de soutien.


Une fréquentation importante

Du fait de sa structure, la fréquentation du site est forte. Près de 1 500 messages sont postés chaque jour. La fréquentation moyenne est de 25 000 visites quotidiennes avec un pic le jour de l’investiture de Ségolène Royal avec 150 000 visites. De dix aux premiers jours, le nombre des modérateurs est passé à soixante-dix. Ils synthétisent les propositions mais font aussi attention aux malveillances par injection de code dans les contributions arrivant sur le site.
Le mimétisme du site avec la campagne de Ségolène Royal va jusqu’aux récents changements intervenus dans le rubriquage du site, afin d’apporter une note plus tonique pour la phase active de la campagne qui va s’ouvrir.
Seul bémol à cette expérience de démocratie participative par le Web : n’aurait-elle pas raté son but en ne rassemblant que les proches de la candidate ou les seuls convaincus de sa victoire en oubliant de convaincre les indécis ?