jeudi 29 septembre 2016
 
Sommaire
Réduire
MAGAZINE

• SIMULATEUR ABOUT GOLF - Un bon swing virtuel


DOSSIER SUPERCALCULATEURS

• Les solutions de calcul haute performance se démocratisent

• L’architecture cluster

• Un supercalculateur au service de l’Université


SERVEURS & SYSTÈMES

• AVANT L’ARCHITECTURE SMT : Sun assure la transition


RÉSEAUX & SÉCURITÉ

• DECT, WI-FI, CPL… Entreprises, passez au sans fil !

• WINDOWS MOBILE 6 - Le tout intégré ultra rapide


LOGICIELS & APPLICATIONS

• AIDE À LA DÉCISION - L’âge d’or du décisionnel

• OUTILS - Comment accélérer votre Web

• EXCHANGE 2007 - Une évolution pleine d’innovations pour les utilisateurs comme pour les administrateurs


POSTE DE TRAVAIL

• PC VOCAL - La parole comme interface

• BONNES FEUILLES - Aller plus loin avec Skype

• LINUX JOURNAL - Découvrez la suite collaborative Open Source Zimbra !


ITINÉRAIRES


• MÉTIERS Indépendant-salarié, un statut à part

• FORMATIONS - Les dernières offres de mastères et de remises à niveau

• LIVRES En vitrine : la saga de l’Inria, l’administration Linux pour les pros et l’orienté objet
Décisionnel
Réduire
AIDE A LA DÉCISION
L'âge d'or du décisionnel !
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Longtemps réservés aux initiés, les outils décisionnels et d’aide à la décision se rapprochent du terrain et de l’opérationnel. De nombreux facteurs, à la fois économiques et technologiques, l’expliquent. Les entreprises entrent désormais dans une ère dirigée par les indicateurs et les rapports pour apporter réactivité et prise de décision efficaces à tous les niveaux de l’entreprise.

On ne peut contrôler et gérer que ce que l’on mesure. Cet adage bien connu des informaticiens devient désormais un leitmotiv à tous les niveaux de l’entreprise. Conformités législative et réglementaire, contrôle interne et mesure des risques sont déjà des éléments objectifs pour se doter d’outils permettant de prendre des décisions ou d’analyser les résultats de l’entreprise. Selon la dernière étude d’IDC, 87 % des entreprises de plus de 500 salariés disposent d’une solution décisionnelle en place. Il existe cependant encore d’autres facteurs pour expliquer la généralisation des outils décisionnels dans l’entreprise.


Que faire de toutes les données ?

Pendant des années, les entreprises se sont dotées d’outils collectant de multiples informations, logiciels comptables, ERP, logiciels de gestion de la relation client. Ces outils ont le mérite d’apporter des données précises, si ce n’est de qualité irréprochable. Depuis quelques années, les entreprises sont passées à un stade supérieur de maturité. Les données, c’est bien ; les exploiter pour en tirer des avantages concurrentiels, améliorer le fonctionnement de l’entreprise ou le service aux clients, c’est toujours beaucoup mieux. Les entreprises de toutes les tailles sont désormais dans cette démarche. Dans les grands comptes, la démarche est présente depuis longtemps. Elle débouche aujourd’hui sur un affinement des analyses financières, pour obtenir un contrôle et une vision prédictive par des fonctions de simulation avancées et d’analyse d’impact des changements de paramètres de l’activité économique.
Les PME sont désormais dans cette approche, avec une vision plus simple de l’utilisation des outils décisionnels, avec une utilisation d’indicateurs de performances synthétiques pour suivre et piloter leur activité au jour le jour. Cette utilisation d’outils réputés complexes a été rendue possible par une baisse drastique du coût des outils décisionnels et par une refonte totale des interfaces des outils.


Des outils plus packagés

Microsoft a une fois de plus changé la donne de ce marché. L’arrivée de son offre Analytics, s’appuyant sur des technologies OLAP maison, a révolutionné le marché. De chères, et réservées à des publics restreints, les solutions sont devenues relativement peu onéreuses et avec une interface totalement renouvelée, masquant la complexité de ces outils en les dotant de nombreux assistants et d’outils simplifiant la construction de requêtes ou la construction de cubes analytiques.
Les autres éditeurs ont suivi pour contrer l’offensive. Désormais, il n’est plus possible – à part pour certains outils spécialisés – de ne pas avoir cette orientation « utilisateur ». Celle-ci se traduit aussi par une intégration forte aux suites bureautiques. Cette intégration va jusqu’à utiliser des outils comme Excel pour la restitution des données ; BristolReport en est un exemple parmi tant d’autres. La suite OpenOffice dans sa version 2.2 intégrera par défaut l’outil décisionnel Open Source de Pentaho.
Cette première démocratisation des outils s’est accompagnée d’une démocratisation du partage des informations issues de ces systèmes avec une diffusion large des rapports par le biais de portails ou de système d’alertes. Ces alertes ont permis aux outils d’aide à la décision d’investir des secteurs de l’entreprise vierges jusqu’alors : production, maintenance, logistique…
Hervé Kauffman, en charge du marketing chez KXEN, le concède : « Là où il y avait un rapport, aujourd’hui il y en a dix ! Mais les éditeurs font le grand écart, d’un côté pour ne pas gêner les spécialistes de ces fonctions, tout en élargissant l’audience et les ventes par une publication de plus en plus large des informations issues des systèmes mis en place. Cela n’empêche pas que les acteurs du marché se fassent prendre une part du gâteau par de nouveaux entrants, parfois insoupçonnés comme Google, qui apportent de nouveaux concepts. »

slide1_300dpi.jpg

Expliquer et prévoir la performance des clients dans les entreprises : exemple du secteur distribution.




LE MARCHÉ DU DÉCISIONNEL
Dynamisme et concentration

Contrairement à d’autres familles de logiciels de gestion, les outils décisionnels vivent une époque faste. Le marché est dynamique avec une forte demande sur tous les segments et l’apparition de nouveaux entrants. La concurrence est cependant impitoyable et oblige à une concentration forte.

Pour les éditeurs de décisionnel, les signaux sont au vert ! Toutes les études effectuées sur le marché français du secteur renvoient des indicateurs positifs sur la conjoncture. Pour Pierre Audoin Consultants (PAC), les entreprises françaises ont investi près de 500 millions d’euros en 2006 pour acquérir ce type de solution, une croissance de 12 %. La tendance devrait se maintenir. IDC voit une croissance moyenne de 10 % sur les années à venir ; 60 % des entreprises interrogées lors de cette dernière étude pensaient étendre, ou mettre en place, des solutions de Business Intelligence. Un raz de marée ! Le phénomène s’explique facilement. Les éditeurs, contrairement à d’autres secteurs comme l’ERP, ont trouvé des relais de croissance alors que leur marché montrait des signes de maturité. De plus, les outils décisionnels sont considérés comme apportant de la valeur à l’entreprise et sont donc plus facilement « vendables » à des directions générale ou financière, souvent les premières concernées lors de la mise en place de tels outils.


Différents relais de croissance

À l’instar des autres logiciels de gestion, les éditeurs de logiciels d’aide à la décision se sont tournés vers les PME. En comparaison à d’autres secteurs, ce virage a été bien pris et les PME se font demandeurs de telles solutions. Business Objects a ainsi refondu une offre spécifique pour ce marché au cours du premier trimestre de cette année, avec des fonctions et des prix adaptés à ce segment considéré comme porteur dans les prochains trimestres. À son image, les autres éditeurs du secteur ont désormais une offre pour ce segment de marché. Plus qu’une déclinaison des offres grands comptes existantes, les éditeurs de BI ont fait le choix d’offres spécifiques et adaptées à ce marché, parfois en se convertissant à de nouveaux modèles de distribution : indirecte ou à la demande.
L’autre principal axe de renouveau se situe dans la mise en place d’une offre spécialisée par métier. Ainsi Spotfire, un éditeur suédois, se spécialise sur des solutions de BI pour le secteur de l’industrie pharmaceutique ou de l’électronique.
D’autres éditeurs spécialisent leurs solutions vers des fonctions de l’entreprise. Tel Cognos, qui proposent des logiciels adaptés à la gestion des ressources humaines. Il en va de même pour SAS dans le secteur commercial et l’analyse des ventes.
Pour PAC, dans une étude sortie très récemment, les relais de croissance se situent aussi bien en amont des solutions, avec l’acquisition des données et leur gestion, que sur leur valorisation dans un contexte métier.
Ce dynamisme ne peut qu’intéresser les investisseurs et les éditeurs ayant atteint une taille importante, et dont la croissance est plus difficile à maintenir.
Le décisionnel n’en oublie cependant pas ses origines : l’analyse financière. C’est toujours dans ce domaine que l’évolution est la plus importante avec notamment la volonté des éditeurs de construire des offres de suivi de la performance financière. Les rachats récents d’Hyperion et de Cartesis représentent le point visible de ce phénomène.
Autre fait marquant, une étude réalisée par Decideo.com en début d’année, démontrait qu’un nombre important d’entreprises souhaitait faire évoluer ou renouveler les plates-formes en place. La course à la concentration vise aussi à récupérer commercialement ces clients atteints de « bougeotte » décisionnelle !


Une concentration active

Les concentrations enregistrées dans le secteur suivent différents axes. Les éditeurs souhaitent construire des solutions complètes avec les meilleurs outils possibles. Les acteurs du secteur se battent donc pour s’arracher les perles rares technologiques du marché. Le rachat de Cartesis par Business Objects sonne comme une réponse du berger à la bergère après l’acquisition d’Hyperion par Oracle. Car dans cette concentration, les modules spécialisés des ERP tiennent à dire leur mot. SAP, avec BW, Oracle, Infor, Lawson sont sur les rangs pour prendre une part du gâteau et apporter de la valeur ajoutée aux données de leurs ERP.
Hervé Kauffman, chez KXEN, livre son analyse : « Lorsque le sujet n’est pas critique, le module avec l’ERP peut convenir. Quand le métier ou la stratégie sont impliqués, l’ERP est complété par un outil spécialisé et plus puissant. Il faut donc que les éditeurs du secteur restent sur des niches à forte valeur ajoutée. » Félix Arguillère, chez CGI, intégrateur de solutions décisionnelles, ajoute : « On ne retrouvera pas le module ERP dans des contextes de SI hétérogènes. »
Cette concentration a pour conséquence une évolution des offres des grands éditeurs du secteur qui deviennent des plates-formes intégrées décisionnelles sur lesquelles il est possible de personnaliser ou de verticaliser des solutions.
On assiste à une « progicialisation » du secteur. Il n’est pas sûr que la course à la taille et à la technologie engagée soit la meilleure solution.


L’intérêt pour l’Open Source s’éveille
Comme dans tous les domaines de l’informatique, la réduction des coûts est toujours un objectif pour les responsables informatiques. Or, malgré une baisse sensible du coût des licences, les logiciels de décisionnel restent encore à des prix souvent élevés. C’est davantage le cas des infrastructures nécessaires à la mise en œuvre : serveurs, bases de données… Dans ce contexte, le recours à l’Open Source est souvent envisagé… à titre d’idée et d’expérimentation. Patrick Menahem, en charge du marketing chez Sybase, indique : « On en entend parler mais on le voit peu. » Ils font souvent partie des nouveaux entrants sur le marché. Les plus médiatiques et les plus remarqués sont les projets Pentaho, Jaspersoft et la start-up française Talend, laquelle tente de s’imposer sur le segment de l’ETL et de l’alimentation des données pour les projets décisionnels. Cet argument prix ne semble cependant pas suffisant pour emporter l’adhésion des entreprises qui relèvent encore une certaine immaturité des projets, même si fonctionnellement les plates-formes sont assez complètes. Actuellement, on assiste à une approche « blend », ou à du panachage entre des produits commerciaux et des logiciels Open Source éprouvés.




LES FONCTIONNALITÉS D’UN DÉCISIONNEL
Valoriser vos données !

Fonctionnellement, la problématique est assez simple. Les entreprises souhaitent tirer le meilleur parti des données structurées présentes dans l’entreprise et propager les analyses au plus près du terrain, pour que les opérationnels puissent prendre rapidement des décisions. Un but : apporter de la valeur ajoutée et une meilleure réactivité pour s’adapter à l'environnement de l’entreprise.

b.derrien.jpg

Bruno Derrien (GFI) : « On voit aujourd’hui des projets qui attaquent directement les bases de production avec une mise à jour en temps réel des cubes. »

La vie des entreprises est aujourd’hui rythmée par les rapports qui suivent son activité. Selon le secteur d’activité, ils sont journaliers, hebdomadaires, mensuels, annuels… 
Ils ne sont pas là seulement pour apporter des enseignements sur l’activité passée de l’entreprise. Aujourd’hui, ils doivent permettre de réagir rapidement à un événement, ou à une situation qui se détériore. On le voit, le suivi reste la demande numéro 1 en ce qui concerne les outils d’aide à la décision. La manière de réagir à un événement évolue cependant quelque peu. La tendance est même à un suivi accru des activités financières de l’entreprise. Toutes les suites d’éditeurs se sont renforcées dans le domaine et les récents rachats de Cartesis et d’Hyperion vont dans ce sens. Cognos lui aussi depuis des années travaille ce terrain. Consolidation budgétaire et respect des normes légales ou réglementaires sont les maîtres mots de l’année écoulée. Le dernier point oblige de plus les entreprises à une véritable traçabilité des informations et au respect de leur qualité et intégrité.
Ce suivi se réalise dans une vision métier. Cela demande ainsi des adaptations ergonomiques des produits pour que cela soit des gens du métier qui utilisent les produits d’aide à la décision. La refonte des interfaces hommes/machines dans le secteur est déjà bien avancée avec le choix principal du portail et de l’interface Web riche. Cette diffusion s’étend à d’autres environnements et se déplace même sur les plates-formes mobiles. Cognos propose une offre, Go ! Mobile, pour un « alerting » et un suivi sur les appareils mobiles. SAP et Orange ont par ailleurs un partenariat pour des solutions de reporting mobile s’appuyant sur BW, le produit décisionnel de SAP.
Les solutions de suivi financier s’étoffent de solutions de simulation. Plus qu’une analyse du passé, les contrôleurs de gestion ou les cadres financiers souhaitent pouvoir analyser l’impact de telle ou telle mesure, ou de tel ou tel événement, comme la hausse ou la baisse d’une devise, ou des matières premières…  Prévisions et prédictions sont toujours d’actualité. Désormais les analyses ne sont plus là pour analyser le passé à partir d’un historique, mais bien pour prévoir l’avenir à partir de tendances sorties de l’historique, avec la possibilité de prévoir la conduite à tenir en cas d’événements spécifiques grâce à des simulations proches des conditions réelles de l’activité de l’entreprise.

DXPClinicalScreenshot4.jpg

Une vue d’analyse de lymphocytes dans l’outil de SpotFire




Le décisionnel investit de nouveaux secteurs

Si la fonction financière reste le premier bastion du décisionnel, la percée de ses outils dans d’autres fonctions de l’entreprise est remarquable. Désormais, les outils d’aide à la décision sont présents dans le secteur de la production, de la logistique, des ressources humaines. Leur but est d’apporter la possibilité de prendre des décisions au plus près du terrain par les opérationnels, sans avoir à remonter la chaîne hiérarchique de décision, ou du moins d’accélérer cette remontée. Pour que cette prise de décision soit la plus pertinente possible, les données sont rafraîchies plus souvent. Dans la distribution, certains souhaitent des actualisations de données tous les quarts d’heure. Ce temps de rafraîchissement dépend principalement du métier et du secteur d’activité de l’entreprise. Dans le secteur de la production, on arrive à des demandes en quasi temps réel. La demande est d’ailleurs forte pour cette pratique. Félix Arguillère, chez CGI, indique : « On retrouve la demande chez tous les utilisateurs. De plus en plus, nous voyons des solutions en streaming des données avec des attaques en quasi temps réel. » Hervé Kauffman, chez KXEN, ajoute : « La question est de savoir où l’on met la limite entre le décisionnel et l’opérationnel. Dans le secteur de la logistique, on a plus besoin de données fraîches que dans d’autres secteurs en gestion. Il faut tout de même que le temps réel ait un sens .»
Les éditeurs se lancent dans cette tendance avec des outils pré-paramétrés ou pré-packagés pour ces activités. Certains comme Spotfire, éditeur suédois, vont plus loin et proposent directement des suites verticalisées pour des secteurs comme la pharmacie ou l’électronique. Le scandinave s’attaque d’ailleurs dans le secteur à des solutions très spécifiques, comme l’analyse des essais cliniques lors du développement de médicaments ou de nouvelles molécules actives.
Enfin, répandus depuis des années mais en plein développement, les Systèmes d’information géographiques (SIG) connaissent un regain d’intérêt pour apporter dans certains domaines des analyses géographiques aux données décisionnelles, notamment les secteurs de la vente, de la distribution, des services publics…


Des analyses plus fines

Plus que des données brutes issues des systèmes décisionnels, les opérationnels souhaitent pouvoir remonter à la cause d’un dysfonctionnement, ou à l’origine d’un événement. Il faut donc qu’ils puissent naviguer dans le monceau de données qui sont désormais à leur disposition.
Dans le domaine, les solutions de data mining, comme celles de KXEN ou SPSS, apportent un fort complément aux outils traditionnels d’aide à la décision, pour justement réaliser cette recherche ou pour valoriser les données. Hervé Kauffman explique : « Certains ont été jusqu’au bout de la démarche avec les indicateurs. Mais l’analyse de la valeur d’un client provient de ce que vaut le client. La quantité de données va forcer à changer la manière de voir ou de raisonner. C’est tout un nouveau pan du décisionnel qui s’ouvre par la demande des utilisateurs sur ce secteur. »


Une approche processus et collaborative

Les demandes d’analyse fine s’intègre dans une vision processus du reporting. Ainsi, les rapports sont souvent pré-calculés pour être disponibles à différentes étapes d’un processus : vente, réapprovisionnement… Les utilisateurs se servent à leur niveau des rapports disponibles pour réaliser le suivi de l’activité. Félix Arguillère détaille : « La tendance forte est à la distribution de l’information en masse par les outils de gestion électronique de documents présents et de les utiliser pour les annotations de rapports pré-calculés délivrés aux salariés, suivant les rôles qu’ils tiennent dans l’entreprise. Cette approche dépasse celle des KPI désormais en place. Même pour les PME, des dashboards se mettent en place de manière transverse. Ces tableaux de bord offrent une perspective cohérente des indicateurs mis en œuvre. »
Bertrand Derrien, chez GFI, ajoute : « Ce qui est vraiment nouveau, c’est de trouver ces outils dans les workflows de production. Les fonctions sont dérivées de ce qui se fait dans les moteurs de recherche pour agréger des données venant d’un peu partout pour les interpréter. »

Hervé Kauffman conclut : « Je pense que nous allons vivre une vraie révolution. Des habitudes autres s’installent avec une interactivité diffuse et un ensemble de données personnelles sur le PC. Je vois bien une alliance d’une multitude d’indicateurs avec un moteur de recherche pour construire des tableaux ou des rapports. Cela va dépasser l’approche KPI, même si elle a encore de beaux jours devant elle. Le volume de données aussi y poussera. »


ARCHITECTURE
Du très classique au service du pragmatisme

Rien de bien nouveau sous le soleil technologique. Seules les architectures évoluent pour offrir plus de simplicité aux utilisateurs. Cette tendance a ses conséquences à la fois sur les matériels qui supportent les plates-formes décisionnelles et sur les bases de données présentes dans l’infrastructure.

Dans l’ensemble, l’approche classique qui prévaut actuellement n’est pas remise en cause. Les données sont extraites et traitées pour être homogènes sur un modèle de données commun et être réinjectées dans une base décisionnelle spécifique dans laquelle s’effectuent les traitements des données à partir des requêteurs. Cependant, des éditeurs cherchent à simplifier ce schéma en proposant des outils permettant d’attaquer directement les bases transactionnelles par les utilisateurs. Bertrand Derrien, de la SSII GFI, ajoute : « L’approche généraliste existe toujours mais dans le secteur industriel les gens sont plus pragmatiques. Aujourd’hui, on voit des projets qui attaquent directement les bases de production avec une mise à jour en temps réel des cubes. »
Félix Arguillère, chez CGI, n’est pas de cet avis : « L’attaque directe sur les bases transactionnelles a un impact sur la performance, du fait de la volumétrie en forte hausse. Cela n’est possible que si l’activité quotidienne n’est pas contrainte. »

slide2_300dpi.jpg

L’architecture modulaire de la solution KXEN.




Volume et performance

Kauff_01.jpg

Hervé Kauffman (KXEN) : « Je pense que nous allons vivre une vraie révolution. »

Les problématiques d’architecture des solutions décisionnelles proviennent principalement de l’explosion des volumes de données à traiter et de l’envergure des cubes décisionnels utilisés pour analyser les données. Félix Arguillère indique : « Comme client, nous avons du beau monde, largement au-dessus du tera-octet. La taille des cubes va de paire. On réalise aujourd’hui des cubes d’une taille qu’on n’aurait pas osé imaginer il y a deux ou trois ans. Il n’est pas rare de rencontrer des cubes de 30 Go ou de 30 à 60 millions de lignes. »

Évidemment, les plates-formes serveurs pour supporter une telle volumétrie de données ne sont pas des plus « démocratiques », comme le précise Hervé Kauffman. « C’est un gros marché qui connaît une vraie évolution avec des machines dédiées, sur lesquelles tournent les bases de données. » On voit ainsi la solution HP Neoview qui tourne sur des serveurs Superdome. Pas vraiment « démocratique », vu le coût. D’autres ont lancé le concept d’appliance qui changent un peu la donne face à Teradata – constructeurs de serveurs et éditeurs de logiciels pour les entrepôts de données de grande tailles par des traitements parallèles. Des nouveaux entrants, comme Netezza ou Datallegro, se sont engouffrés sur ce concept d’appliance.

Cette remise en cause des approches de traitements parallèles s’accompagne d’une recherche de performance des bases de données qui stockent les informations pour l’aide à la décision. Patrick Menaihem de Sybase met cependant le point sur le revers de la médaille de ces appliances : « Le couplage reste fort sur le coût réel de stockage des données passives – celles qui sont peu ou pas utilisées. En décisionnel, la loi de Paretto s’applique aussi : 80 % des requêtes concernent 20 % des données, mais 100 % des données ont une valeur pour l’entreprise. »
Ainsi, les bases spécifiques connaissent quelques différences pour augmenter les rendements et l’expérience utilisateur.

IQ, la base de données orientée décisionnel de Sybase, est organisée en colonnes avec les attributs qui seront recherchés. L’avantage est d’éviter la lecture de milliers de tables avant d’obtenir le résultat de la recherche. D’autres fonctions de partitionnement vertical, d’algorithme d’indexation automatique spécifique (chaînes alphanumériques par exemple) réduisent les temps d’entrées/sorties et améliorent les performances. Des outils de compression de données permettent encore d’augmenter la performance. Patrick Menaihem indique : « Certaines recherches chez nos clients ont été réduites de 30 minutes à 1 minute et trente secondes. » Sur des entrepôts de données de près de 30 To, comme chez France Télécom, la différence est très importante.

Cette course à la performance permet à certaines SSII, comme Atos Origin, d’offrir ce type de service sous forme externalisée dans la gestion de l’analyse de la gestion de la relation client.

tablo.jpg

Nous ne détaillons pas dans ce tableau les offres présentes dans les différents ERP du marché. Citons pour mémoire SAP BW, Lawson, Cegid, Oracle, Sage, Infor …


Edito
Réduire
L’ordinateur qui pense

Faire penser l’ordinateur est un fantasme aussi vieux que l’informatique elle-même.

newstef26526_Copier5.gifJusqu’à  présent, la discipline  est essentiellement logicielle et s’appelle intelligence artificielle. Les résultats obtenus sont pour le moins mitigés et, dans tous les cas, la discipline n’a pas dépassé la sphère de quelques initiés.
Toutefois, un pas pourrait être franchi en s’attaquant non plus simplement à l’aide de lignes de code, mais au travers d’une conception matérielle des puces qui simuleraient le fonctionnement et l’organisation du cerveau humain ; du moins pour ce que nous en connaissons.
C’est le pari que tente de réaliser actuellement une équipe de chercheurs de la prestigieuse université de Stanford, sous la conduite de Kwabena Boahen, ainsi que le dévoilent nos confrères de Technology Review. Ce professeur de « bioengineering » arrange des microprocesseurs de la même manière que les neurones de certaines parties de notre cerveau. Le principe est d’imiter les propriétés électriques des neurones.
L’étude approfondie du cerveau a permis de mettre en évidence de quelle manière fonctionne notre mémoire, notamment par les connexions qui se réalisent entre les neurones. L’équipe de Stanford reproduit donc une partie de notre cerveau en remplaçant les neurones par des transistors et en déclenchant des impulsions électriques entre les uns et les autres à la manière des synapses.
Les travaux n’en sont encore qu’à leurs débuts, mais déjà l’équipe a mis en évidence que les puces deviennent capables d’apprendre ! Donc de se comporter différemment dans leurs interactions selon les situations. Ceci ouvre de nouvelles perspectives et le professeur Boahen s’est attelé à la construction d’un plus grand circuit, une grille de 256 par 256.
Ajoutons que vient de s’ouvrir ces derniers jours l’exposition RoboBusiness 2007 et que cette édition semble être un grand cru. L’occasion est offerte à tous les apprentis roboticiens de participer à un concours de création de robot domestique à l’aide d’un kit. 5000 dollars seront offerts au vainqueur. Mais plus intéressante est la réflexion de l’un des créateurs du salon à nos confrères de news.com. Il affirme que dans quelques années, les robots devraient être capables de se mouvoir avec plus de facilité qu’aujourd’hui, de manipuler des objets et – surtout  – de penser et accomplir des choses. Aussi, lorsque l’on met en parallèle les deux travaux, on ne peut s’empêcher d’imaginer que le film iRobot ne sera bientôt plus totalement de la science-fiction. Faut-il l’espérer ou le craindre ? Sans doute un peu des deux.
Depuis le temps que nous répétons que l’informatique n’a pas fini de nous surprendre, en voilà deux nouvelles illustrations.

    Stéphane Larcher
p.1
Réduire
Les solutions de calcul haute performance se démocratisent
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

NovaScale_famille51763_Cop5.gifLongtemps cantonnées aux très grandes entreprises et aux centres de recherche, les architectures en « cluster » abaissent considérablement le « ticket d’entrée » des solutions de calcul haute performance, les rendant désormais accessibles aux PME.

Inabordable. Tel est certainement le premier qualificatif qui vient à l’esprit lorsque l’on évoque les solutions de calcul intensif. Ceci reste vrai si l’on souhaite atteindre des puissances de calcul très importantes et être présent dans le classement bi-annuel du Top 500, qui recense les cinq cents calculateurs les plus puissants dans le monde (www.top500.org). Dans ce tableau, les grandes entreprises – EDF, Total et des institutions bancaires, pour ne mentionner que quelques sociétés françaises – côtoient des centres de recherche comme la NASA ou le CEA. Évidemment, ce classement véhicule une image certes positive mais également élitiste du calcul haute performance, ou « HPC ».

Pourtant, avec la baisse du coût d’accès au calcul haute performance, ce marché s’ouvre très nettement vers les entreprises de tailles moyennes. « Aujourd’hui, il est possible de disposer d’un système de calcul haute performance pour quinze mille euros », assure Alain Ledoux, directeur général de Transtec, fournisseur spécialisé dans ce marché. « Cela ouvre de nouveaux horizons pour les PME. Elles peuvent mettre en œuvre les fonctions de simulation disponibles dans les logiciels de conception. »

Le recours à cette fonction revêt une grande importance. La simulation est utilisée pour réduire le temps et le coût de conception des nouveaux produits. Ce « ticket d’entrée » en forte baisse modifie également la diffusion du HPC dans les grands groupes. « Les solutions de calcul intensif connaissent un phénomène de décentralisation, se rapprochant un peu plus des utilisateurs finaux », assure Benoît Hallez, responsable des activités HPC de Bull. « C’est notamment le cas dans les secteurs pharmaceutique et bancaire. »

Toutefois, pour Jean-Yves Migeon, responsable marketing produits serveurs chez Sun Microsystems France, « le coût lié à l’exploitation des solutions HPC fait que le phénomène restera limité à des secteurs d’activités particuliers. » Reste que personne ne nie la baisse du coût d’accès aux solutions de calcul haute performance. Plusieurs facteurs expliquent ce succès rapide.


Les clusters représentent plus de 70 % du marché

Pour commencer, l’architecture interne des serveurs de calcul haute performance s’est totalement transformée depuis une dizaine d’années. Au début des années 2000, les gros systèmes de type SMP, ou massivement parallèles, représentaient plus de 70 % du marché contre 10 % pour les architectures clusters (serveurs organisés en grappes). « Actuellement, le rapport de force s’est totalement inversé », confie Alain Ledoux. « Les clusters représentent maintenant plus de 70 % du marché. » Pour réussir un tel tour de force, les serveurs en grappes ont tiré profit de la complexité à maintenir les serveurs SMP et massivement parallèles, tout en les faisant évoluer en conservant un rapport performance/prix intéressant.
Si la prise de pouvoir des clusters est récente dans le monde du calcul intensif, il faut remonter à 1994 pour voir apparaître les premières machines reposant sur cette architecture. Cette année-là, Thomas Sterling et Don Becker, tous deux issus du centre d’excellence de la NASA, jettent les bases des serveurs en grappes Beowulf. Le principe consiste à utiliser des ordinateurs classiques, fabriqués en série et donc peu onéreux, sur lesquels seront répartis les traitements. Ces ordinateurs sont reliés entre eux au travers d’un réseau dédié à haute vitesse et faible latence. Ce réseau sert à synchroniser les traitements entre les différents ordinateurs, appelés couramment « nœuds ».


Tera 10, un supercalculcalteur au service du nucléaire
Souvenez-vous. En 1996, Jacques Chirac, président de la République, annonce que la France va signer le traité d’interdiction des essais nucléaires Option Zéro (CTBT). Si cette déclaration impliquait la fin des essais réels pour les armes nucléaires, elle n’annonçait en aucun cas l’arrêt de la recherche dans ce secteur. Les nouveaux développements allaient s’effectuer uniquement sur ordinateur et faire appel à des outils de simulation. Cette délicate mission est confiée au Commissariat à l’Énergie Atomique / Direction des Applications Militaires – CEA / DAM. Pour disposer de la puissance de calcul suffisante pour mener à bien sa mission, tout en conservant un coût raisonnable, le CEA a bâtit sa solution de calcul intensif autour de serveurs NovaScale de Bull. Ces derniers sont tous dotés de huit processeurs Intel Itanium II à double cœur, soit l’équivalent de 16 processeurs classiques par serveur. L’ensemble représente 8 704 processeurs, une mémoire vive de 30 To, répartie dans les serveurs et une puissance de calcul supérieure à 50 Téraflop, soit plus de 50 000 milliards d’opérations par seconde.




Un investissement de 4 000 euros


À ce changement d’architecture s’ajoute un second facteur tout aussi important : la loi de Moore. Cette dernière stipule que le nombre de transistors contenus dans un processeur double tous les deux ans, tout en gardant un prix constant. Résultat : les serveurs classiques aujourd’hui affichent des capacités de traitement impressionnantes. En 1991, pour disposer d’une puissance de calcul d’environ 10 Gflops, il fallait se tourner vers un serveur embarquant seize processeurs et 4 Go de Ram, le tout coûtant entre trente et quarante millions d’euros. En 2006, un serveur d’entrée de gamme équipé de deux processeurs double cœur et 8 Go de Ram suffisait. Mais surtout, cette configuration coûtait moins de quatre mille euros. Ce qui était encore réservé à quelques très grands centres de recherche il y a quinze ans devient accessible à toutes les entreprises, même les plus petites. Et cette monté en puissance des processeurs n’est pas prêt de s’arrêter. Les fondeurs – AMD, IBM, Intel et Sun Microsystems en tête – se livrent à une course effrénée en annonçant régulièrement des produits embarquant de plus en plus de « cœurs » dans une seule puce.

tablo1.jpgEt cette fuite en avant se traduit au niveau du matériel par l’augmentation de la densité. L’arrivée des serveurs lames en est l’une des illustrations. « Actuellement, il est possible de mettre quatre processeurs bi-cœurs dans un serveur 1U », rappelle Lionel Nouzarede, responsable des ventes Grid et HPC chez IBM France. « La puissance de calcul disponible dans ces équipements est donc considérable, même s’ils n’ont pas été initialement conçus pour effectuer des calculs haute performance », confie Alain Ledoux. Il n’est pas rare de voir des entreprises acheter des racks de serveurs blades et de les dédier, entièrement ou en partie, au calcul intensif. Ce dispositif assure une granularité très fine dans l’affectation des ressources pour les calculs. En plus du très bon rapport prix/performance, les possibilités d’extension constituent un excellent argument pour les budgets de départ plutôt modestes pour les solutions HPC.

Ainsi, l’administrateur peut allouer chaque année une partie de son budget pour acheter le matériel supplémentaire, sans avoir à réduire notablement les autres investissements. Mieux, il pourra également fédérer la puissance de plusieurs clusters pour bâtir une grille de calcul. Certes, cette approche reste pour le moment cantonnée à quelques centres de recherche, dont le CERN. Ce concept, qui vise à fédérer des ressources disparates et dispatchées dans l’entreprise, a pour le moment, du mal à passer à l’ère industrielle et donc à séduire les grandes entreprises. « Les spécifications qui visent à définir un middleware pour le Grid sont encore en cours de finalisation », explique Martin Waker, responsable des centres de calculs pour HP. Cette couche logicielle vise à définir les règles pour gérer une grille de calcul : comment enregistrer les ressources disponibles, comment les attribuer à l’utilisateur qui le demande, assurer la sécurité des tâches, etc. « Ces spécifications devraient être terminées dans un an ; il faudra attendre 2009 pour les voir implantées par les grands constructeurs avant d’être intégrées, à terme, directement dans les systèmes d’exploitation », précise Martin Walker. « Lorsque cette étape sera atteinte, tout le monde va utiliser le Grid sans même s’en rendre compte. »


Améliorer la parallélisation des programmes

tablo2.jpgL’architecture « serveur en grappes » a donc de beaux jours devant elle. Son adoption qui s’accompagne de la multiplication des processeurs entraîne de nouveaux défis. Le plus important consiste certainement à garantir autant que possible une augmentation linéaire de la performance lors de l’ajout de nouveaux nœuds. Or, le gain de performances obtenu dépend directement de la proportion du code du programme exécuté pouvant être parallélisée sur les différents nœuds de calcul, tout en gardant la cohérence dans les traitements. Avec la multiplication du nombre de nœuds et de processeurs, les fournisseurs vont devoir améliorer le degré de parallélisation des programmes. Pour cela, il est possible de développer les applications en utilisant des langages spécifiquement conçus pour cela, comme Occam. Reste que cette approche paraît peu viable au regard des coûts supplémentaires qu’elle engendre. L’autre possibilité consiste à rendre les applications « communiquantes ». Cette approche repose sur le modèle théorique, dit de Processus séquentiels communiquant. Pour cela, les fournisseurs s’appuient sur l’interface de programmation standardisée Massage Passing Interface (MPI) dont l’implémentation MPICH2 de l’Argonne National Laboratory se trouve être la référence. Cette couche intermédiaire assure la synchronisation et le transfert des données entre les nœuds grâce à l’envoi de messages. Sans surprise, les constructeurs de solutions HPC travaillent tous ardemment sur le sujet.
p.2
Réduire
bluegene-155043_Copier6.gif

Des distributions Linux pour réduire les coûts


Ensuite, la diminution drastique des coûts du matériel ne doit pas masquer les investissements nécessaires en termes de services et de logiciels pour la mise en œuvre d’une solution de calcul intensif. D’ailleurs, la valeur ajoutée se déplace vers le logiciel et le service, pôles qui peuvent représenter jusqu’à deux tiers de l’investissement total d’un cluster. Afin d’alléger autant que possible cette facture, les fournisseurs s’appuient désormais sur des versions de distributions Linux spécialement préparées pour le calcul intensif. « Ce choix est avant tout dicté par des raisons économiques », rappelle Marc Triboulet, directeur général de Non Stop Systems, société de service spécialisée dans les architectures sécurisées et à haute disponibilité. Avant de poursuivre : « Lorsqu’un cluster HPC se compose de plusieurs centaines de nœuds, les économies sur les licences deviennent significatives. » Les fournisseurs complètent le système d’exploitation avec une suite de produits propres aux HPC, comme l’ordonnanceur de tâches. Ce choix stratégique convient parfaitement pour adresser le marché historique du calcul haute performance. Néanmoins, les entreprises nouvellement intéressées ne disposent pas toutes des compétences techniques nécessaires pour mettre en place ces solutions.
Si tel est le cas, deux solutions s’offrent à elles. La première consiste à se rapprocher d’un fournisseur qui propose un contrat de gestion, d’administration et de maintenance clés en main. L’entreprise ne s’occupe de rien. L’autre possibilité consiste à choisir la solution Windows CCS de Microsoft, spécialement conçue pour répondre à des besoins de calcul intensif. Cette dernière a été lancée dans le courant du second trimestre 2006.

« Nous sommes partis d’un constat bien connu », explique Éric Nataf, directeur marketing pour l’offre HPC chez Microsoft : « Les PME n’osent pas s’aventurer dans le HPC par crainte d’un ticket d’entrée trop élevé et de devoir effectuer une montée en compétence importante sur les environnements Linux. C’est en tenant compte de l’ensemble de ces éléments que nous avons développé notre offre. »


Les traders veulent un résultat immédiat

Pour réussir son pari, Microsoft s’est associé aux principaux fournisseurs matériels de solutions HPC, dont Bull, Dell, Fujitsu Siemens, HP, IBM, Nec ou encore SGI. À en croire Éric Nataf, Microsoft a réussi une percée dans les banques et plus particulièrement les banques d’affaires. En effet, ces dernières ont besoin d’une puissance de traitement importante pour effectuer leurs calculs de risques, ou encore pour que les traders puissent simuler l’évolution de leur portefeuille. Ces organismes sont d’autant plus intéressés qu’auparavant ces opérations s’effectuaient sur les mainframes. Les tâches s’exécutaient la nuit, période creuse pour ces machines. Or, cette approche arrivait à ses limites. D’une part, les traders souhaitent disposer le plus vite possible du résultat des simulations afin d’être en mesure de prendre une décision rapidement. Enfin, le coût des calculs sur les mainframes devenait trop important. La généralisation des serveurs x86 qui s’accompagnent de l’accroissement de leur puissance de traitement arrive au bon moment pour accélérer la démocratisation des solutions HPC.


La simulation pour prédire l’avenir chez EDF R & D
EDF R & D se dote d’une solution de calcul haute performance de tout premier plan. Composée de plus de 4 000 processeurs Power de IBM, elle occupe le 61e rang des machines les plus puissantes au monde d’après le dernier classement du TOP 500 (www.top500.org). Cette configuration se classe en deuxième position en Europe dans la catégorie industriel. D’une puissance de 11,4 Teraflops, elle dispose d’une architecture originale permettant de mettre le calcul parallèle massif au service des simulations les plus avancées sur le fonctionnement et la durée de vie des outils de production d’énergie, la gestion du combustible ou encore l’optimisation technico-économiques de nos actifs. Cette machine complète la panoplie des moyens calculs de EDF R & D, qui jusqu’alors se composait de clusters départementaux, soit huit machines de seize à quatre cents processeurs en 2006 et des machines du centre de calcul CCRT que EDF partage avec d’autres industriels et le CEA. La machine scalaire du CCRT, qui sera installée en 2007, atteindra la puissance de 43 Teraflops, dont près de 25 % seront réservés aux applications EDF. La nouvelle machine – Blue Gene/L de IBM – est dédiée à la réalisation de simulations afin, d’une part, de s’attaquer à des défis industriels hors de portée des capacités de calculs classiques et, d’autre part, de préparer les environnements de simulation aux futurs moyens de calcul qui à l’horizon 2010-2015 atteindront pour EDF le Petaflops.



L’architecture cluster

Un cluster HPC se compose d’un ensemble de machines – de plus en plus souvent des serveurs lames – dotées de processeurs Intel/AMD x86, x64, Intel Itanium ou encore IBM PowerPC, sur lesquelles sont répartis les traitements à effectuer. Le système de calcul intensif se compose d’un ou plusieurs nœuds principaux et de plusieurs nœuds dédiés au calcul. Dans certaines configurations « haut de gamme », il est possible de trouver des serveurs dédiés pour la gestion des entrées/sorties lorsque la quantité de données à manipuler est très importante.

tablo3.jpg

tablo4.jpg
p.3
Réduire
Un supercalculateur au service de l’Université

Suite à la réussite d’un premier projet de calcul intensif, l’Université de Reims poursuit sur cette voie avec la mise en œuvre d’une seconde solution. Celle-ci est plus ouverte sur l’Université ainsi que sur les industriels de la région.

La rencontre de l’Université de Reims avec le calcul intensif date de la fin 2000, début 2001. À cette époque, déjà, les chercheurs avaient besoin d’avoir régulièrement recours à la simulation afin de mener à bien leurs travaux. De plus, pour pouvoir publier le fruit de leurs recherches, ils doivent être en mesure de présenter le détail des calculs de leurs travaux. L’enjeu était donc d’importance, notamment pour le rayonnement de l’Université. Ne disposant pas des ressources ad hoc en interne, l’établissement se tournait vers l’IDRIS. Or, cet institut, pour faire face à l’afflux de demande, privilégiait les organismes qui disposaient d’une première expérience. « Pour lever ce frein, la décision fut prise de mettre en place sur le campus un système de calcul intensif de taille intermédiaire », explique Michael Krajecki, professeur et responsable du projet de calcul intensif ROMEO. De plus, victime de son succès, l’IDRIS attribue généralement des créneaux inférieurs à ceux désirés. « Nous devions donc les exploiter à leur maximum », explique Mickael Krajecki : « La plate-forme de calcul interne a permis de préparer les opérations que nous allions mener sur les ressources de l’institut. » Fin 2004, lorsque l’heure du bilan a sonné, les conclusions furent très positives. « Huit thèses de doctorat ont bénéficié de nos moyens de calcul, sans oublier les publications scientifiques que nous avons pu effectuer », dévoile Michael Krajecki ; « Nous avons donc décidé de renouveler la solution. »

Universite_Reims54699_Copi7.gif
 

Un appel d’offres fonctionnel

Cette première expérience fut également bénéfique pour définir la nouvelle solution cible. Les chercheurs connaissaient précisément leurs besoins. Les physiciens souhaitaient disposer de beaucoup de mémoire vive, les chimistes de disques rapides au niveau des nœuds pour gérer la grande quantité de données nécessaires aux simulations. Enfin, les informaticiens voulaient un grand nombre de nœuds et de processeurs.
« Les contraintes techniques que nous avons fixées correspondent à la synthèse de ces besoins », explique Michael Krajecki. À partir de cette base, l’Université de Reims a défini un appel d’offres principalement fonctionnel. Les contraintes techniques fixées découlaient de ce premier volet, mis à part le taille minimale d’un nœud, le ratio mémoire/puissance processeur, la puissance crête ou encore le débit minimal du réseau d’interconnexion. Enfin, l’Université de Reims a également décidé d’associer l’Université de Technologie de Troyes au projet ROMEO II. Cette université dispose localement d’un nœud de calcul. Pour accéder à l’ensemble des ressources, l’établissement se connecte en utilisant le réseau haut débit mis en place par la Région Champagne-Ardenne.


52 processeurs Itanium 2

Après une étude détaillée des offres reçues, l’Université de Reims a retenu la proposition de Bull. « Le constructeur français a proposé une solution très équilibrée, tant sur le plan technique que financier », confie Michael Krajecki.
D’une puissance de 500 Gigaflops, soit l’équivalent de 500 milliards d’opérations à la seconde, le calculateur Novascale retenu repose sur 52 processeurs Itanium 2 double cœurs et dotés de 4 Mo de mémoire cache. Cette solution affiche une puissance crête de 600 Gflops. « Si nous avons besoin de plus de puissance, nous faisons une demande à l’IDRIS, comme c’était le cas auparavant », précise Michael Krajecki. Un réseau de stockage fibre channel est adjoint au calculateur pour faire face à la volumétrie des données générées par les calculs. « Nous avons déjà sauvegardé plus de 12 To depuis l’installation de notre calculateur », poursuit Michael Krajecki. « Cela devrait augmenter rapidement, au fur et à mesure de la montée en puissance du calculateur. » En effet, les applications qui permettent de réaliser ces calculs sont basculées progressivement vers le nouveau calculateur. Chaque « migration » s’accompagne d’une phase de tests très poussés afin de s’assurer qu’il n’y a pas de divergence dans les résultats. « Nous sommes en plein dans cette phase délicate, longue et crucial pour la suite de ROMEO II », ajoute Michael Krajecki. Ce projet se destine à fournir en priorité la puissance de calcul requise à l’ensemble de la communauté scientifique de l’Université. Et de nombreux domaines sont concernés, qu’il s’agisse d’optimiser les performances des combinaisons utilisées par les champions de natation, d’améliorer la compréhension de certains mécanismes biologiques fondamentaux, ou de résoudre des problèmes combinatoires et d’ordonnancement. La puissance calcul est utilisée aussi pour la modélisation de systèmes moléculaires complexes, la compréhension des mécanismes biologiques, protéines et dynamique moléculaires ou encore pour la modélisation des matériaux pour l’emballage et le conditionnement.
Si la mise à disposition de la puissance de calcul au service de l’université constitue la première étape de ROMEO II, l’Université de Reims compte ouvrir, à terme, son centre de calcul aux industriels de la région. Si l’attention est louable, elle se trouve confrontée à la réticence des industriels eux-mêmes. « Je crois que ces derniers ont une image faussée du milieu universitaire », regrette Michael Krajecki. « Ils craignent, entre autres, pour la sécurité et la confidentialité de leur données, alors que nous avons mis en place toutes les garanties possibles à ce niveau. C’est donc à nous de les rassurer sur ce point et de leur démontrer notre compétence en la matière. » Les équipes de Michael Krajecki vont tout faire pour lever les doutes sur ce point.
Cette plate-forme de calcul intensif pourra alors pleinement jouer son rôle : accélérer la recherche universitaire et donner aux entreprises de la région un accès à des moyens de calculs importants pour renforcer leur compétitivité.


Attention aux imprévus
Pour accueillir le calculateur et faire face aux contraintes environnementales – notamment l’alimentation électrique et le refroidissement – l’Université de Reims décide de construire une nouvelle salle blanche taillée sur mesure. Et aussi surprenant que cela puisse paraître, cette étape a peut-être été la plus délicate à gérer. La livraison de la nouvelle salle va prendre du retard, ce qui touchera l’ensemble du projet. « En fait, nous avons très nettement sous-estimé les délais nécessaire à la construction d’une telle salle », explique Michael Krajecki. « Notre nouvelle salle blanche a été livrée avec six à neuf mois de retard par rapport à la date initiale. » Si cela parait anodin à première vue, ce délai a eu des répercussions importantes sur la solution technique. « Neuf mois, cela représente presque une génération de processeurs », poursuit Michael Krajecki. « Nous nous sommes donc retournés vers Bull afin de voir comment il était possible de disposer des innovations introduite entre temps. » L’emplacement de cette nouvelle salle a été choisi pour pouvoir disposer, dans les meilleures conditions, de l’accès à RENATER, le réseau haut débit français pour la recherche.


Exchange 2007
Réduire
EXCHANGE 2007
Une évolution pleine d’innovations
Par Pascal Creusot - Copyright L'Informaticien, tous droits réservés

2007 est une année de renouvellement des logiciels chez Microsoft avec la gamme Office 2007 et Windows Vista. Mais cette évolution concerne aussi les serveurs avec l’annonce de Longhorn Serveur pour la fin de cette année, et les produits « Backoffice », tels que MOSS 2007 (Microsoft Office Sharepoint Services) ou MOCS 2007 (Microsoft Office Communication Server). La messagerie Exchange évolue, elle aussi, en passant de la version 2003 à la version 2007.

Owa1.jpg

L’identification de l’utilisateur en accès avec OWA permet de saisir non seulement son nom d’utilisateur et son mot de passe, mais apporte un niveau de sécurité différent selon que l’on accède à partir d’un ordinateur privé ou d’un ordinateur public.

Avec cette nouvelle version Exchange 2007, de son serveur de messagerie, Microsoft marque une véritable évolution dans de nombreux domaines. Les nouveautés peuvent être regroupées selon trois axes qui sont la simplification de l’administration, l’apport de fonctions aux utilisateurs et enfin la sécurité.
Exchange 2007 a donc été repensé pour offrir de nouvelles fonctionnalités et aussi pour améliorer l’administration et la gestion du système de messagerie de l’entreprise. Dans ce dossier, nous allons voir en premier lieu les évolutions du serveur de messagerie du côté des utilisateurs, puis vu du côté des administrateurs. Ensuite, ce sont les aspects sécurité et les aspects fonctionnels qui seront abordés pour conclure cet article, dont le but est de vous fournir une vue globale des améliorations et évolutions techniques, qui sont très nombreuses et importantes. Au point qu’il est plus réaliste de dire qu’Exchange 2007 est une nouvelle génération de serveur de messagerie, plutôt que de considérer cette version comme une simple évolution d’Exchange 2003.


Les nouvelles fonctions vues du côté utilisateur

Il est intéressant de commencer par le côté visible, c’est en général une des motivations principales pour le changement et l’adoption de la nouvelle version d’un produit. La mobilité a été un des axes du développement d’Exchange 2007 et c’est ainsi qu’il est maintenant possible d’accéder à sa messagerie de partout.
L’utilisateur peut disposer de plusieurs clients de messagerie. On trouve en premier lieu le client le plus simple et le plus léger qui soit : un navigateur Internet. Ce mode d’accès se nomme Outlook Web Access, que l’on retrouve souvent sous l’acronyme OWA. Cet accès ne nécessite aucun module complémentaire et il est intégré d’origine dans Exchange 2007. Il est simplement nécessaire de sécuriser l’accès avec un Firewall, de préférence applicatif, tel qu’un serveur ISA 2006 qui assure l’authentification des utilisateurs en amont, avant qu’ils se connectent à un serveur Exchange. L’accès OWA permet donc un accès à sa messagerie d’un cybercafé, d’un point d’accès Wi-Fi ou encore d’un poste qui ne fonctionne pas sous Windows. C’est donc le client « universel » pour permettre aux utilisateurs d’accéder à leurs données, messages, agenda, notes, fichiers, contacts ou encore tâches qui sont hébergées sur Exchange 2007.


OWA : des fonctionnalités complètes à partir d’un navigateur Internet

Le niveau de fonctionnalités et l’interface disponible avec OWA dépendent du type de navigateur utilisé. C’est sans surprise que le meilleur niveau est obtenu lors de l’utilisation d’Internet Explorer IE6 ou, d’IE7. En utilisant ces clients, l’interface de navigation a été fortement améliorée pour être très proche du client Outlook 2007. Les fonctions de recherche dans l’annuaire de l’entreprise et dans les contacts a été entièrement revue pour simplifier les opérations de recherche avec un affichage complet du carnet d’adresses.
Une autre nouveauté commune à Outlook 2007 et OWA 2007 est la possibilité de gérer les avis d’absence du bureau de manière distincte s’il s’agit d’un destinataire interne ou externe à l’entreprise. Cela permet non seulement de personnaliser le message destiné aux personnes internes de celui pour les personnes externes, mais aussi de ne pas renvoyer d’avis d’absence aux personnes non identifiées dans la liste des contacts. Cette précaution permet de  limiter les risques de collecte d’informations et donc de se retrouver comme cible de Spams. L’accès aux informations – les messages, le calendrier, les tâches ou encore les notes – a été largement amélioré au niveau ergonomique.


L’accès à distance aux documents de l’entreprise

Pour ce qui est de l’accès à des documents situés sur des serveurs de l’entreprise ou des documents attachés à des messages, cela n’était pas pris en compte avec les précédentes versions d’Exchange, mais de nouvelles solutions ont été intégrées dans Exchange 2007, même pour les clients connectés en OWA, donc à distance. Le principe mis en place pour cet accès aux ressources de l’entreprise consiste à utiliser Exchange 2007 comme proxy pour accéder à ces ressources en utilisant la connexion OWA.  Cela permet un accès transparent aux documents stockés sur un partage de type UNC (\\nomdeServer\ressource) ou un site SharePoint sans avoir à mettre en place des connexions de type connexion à distance ou VPN.
Une autre technologie a été développée pour permettre l’accès au contenu de certaines pièces jointes. Cette solution nommée WebReady permet l’affichage direct des documents joints dans le navigateur sans avoir besoin du programme de visualisation ou de création du document. Ainsi, d’un navigateur sur une machine sur laquelle aucun lecteur de document ni programme Office n’est installé, il est possible de visualiser directement les pièces jointes à un message si elles sont au format Word, Excel, Powerpoint ou PDF. En fait, le serveur Exchange se charge de la transformation du document en une page graphique envoyée vers le navigateur. Attention, car tous les formats Office, par exemple les formats Office 2007, ne sont pas encore supportés, mais cela fera certainement partie des prochaines évolutions ou mises à jour.


La mobilité en toute sécurité

L’accès en mode Web à la messagerie de l’entreprise passe obligatoirement par un accès de type HTTPS et par une authentification de l’utilisateur sur les serveurs de messagerie. Mais la sécurité a aussi été renforcée au niveau de la mobilité et de la gestion des périphériques mobiles. Exchange 2007 tire profit de l’expérience de Microsoft, acquise avec Exchange 2003 SP2, qui a apporté de nombreuses fonctionnalités pour les équipements mobiles, tels que les « smartphones ». On retrouve avec Exchange 2007 l’ensemble de ces fonctions qui sont la synchronisation directe entre le terminal mobile et le serveur Exchange, en utilisant ActiveSync sur des connexions directes, en Bluetooth, en Wi-Fi ou en utilisant un réseau de transmission de données des opérateurs téléphoniques.
En plus de cette synchronisation, Microsoft propose la fonction de « Push Mail » qui permet d’être averti de manière quasiment immédiate lors de la réception d’un message dans sa boîte aux lettres. Cette fonction, similaire à celle proposée par RIM avec le Blackberry, ne nécessite aucune infrastructure ni licence supplémentaire. Il suffit de configurer et d’activer cette fonction sur Exchange 2007 pour recevoir directement en mode HTTPS les messages de sa boîte aux lettres vers son terminal mobile. Le transfert s’effectue de manière directe entre le serveur Exchange de l’entreprise et le terminal au travers d’une connexion Internet.
Exchange 2007 intègre les fonctions de gestion des périphériques mobiles tant au niveau du transfert des données qu’au niveau de la sécurité. Ainsi, l’utilisateur peut, au travers de l’interface de son client Outlook, mais aussi en utilisant Outlook, effectuer un effacement total de sont périphérique mobile s’il a été perdu ou volé. Cette opération peut être aussi effectuée par un administrateur. Il est possible de la même manière de réaliser un changement du code de verrouillage de l’appareil mobile.


La messagerie unifiée intégrée dans Exchange 2007
Exchange 2007 intègre les technologies VoIP. De manière concrète, cela signifie qu’il est possible d’interfacer le serveur de messagerie avec des équipements de téléphonie. La messagerie unifiée Exchange Server 2007 réunit les fonctions de messagerie vocale, de télécopie, et de messagerie électronique au sein d’une seule boîte de réception accessible du téléphone, d’un ordinateur ou d’un terminal mobile. Cette solution permet donc aux utilisateurs d’accéder aux informations de leurs boîtes aux lettres à partir d’un simple téléphone. L’accès en mode vocal se nomme OVA pour Outlook Voice Access. Le seul composant complémentaire requis est une passerelle VoIP, c’est-à-dire un boîtier matériel qui effectue l’interface entre les lignes téléphoniques ou le PABX d’entreprise et le réseau sur lequel est connecté le serveur Exchange. Une fois établie la communication téléphonique vocale avec cette passerelle, il est alors possible de consulter sa boîte aux lettres, d’écouter la lecture des messages électroniques ou vocaux présents dans sa boîte aux lettres, ou encore de laisser un message vocal à destination d’un utilisateur. Exchange 2007 intègre un moteur de conversion du texte en parole (Text to Speech) qui fonctionne parfaitement dans plusieurs langues, parmi lesquelles l’anglais, mais aussi le français. Le site de la communauté francophone Exchange propose une démonstration de cette fonctionnalité.




Outlook 2007 : un client complet et mobile

Pour les utilisateurs nomades, OWA n’est pas la seule solution d’accès à distance aux données stockées sur un serveur Exchange. Outlook 2007, ainsi que Outlook 2003, peuvent être utilisés pour accéder non seulement en direct, mais aussi à distance, à une architecture de messagerie Exchange 2007.
Le client Outlook 2007 apporte encore plus de fonctionnalités que le client Outlook 2003 pour le mode connecté à distance. Le principe de connexion retenu par Microsoft pour un client Outlook en local se nomme connexion MAPI, basée sur des communications de type RPC (Remote Procedure Call). Lors d’une connexion à distance, les connexions RPC sont toujours utilisées, mais elles sont alors encapsulées dans des trames HTTPS.
On dispose ainsi de la possibilité de se connecter en mode MAPI avec Outlook, même si l’on ne dispose que d’une connexion HTTPS et, donc, lorsque l’on est à distance à l’extérieur de l’entreprise. Cette connexion HTTPS peut passer par des liens Internet sans avoir à mettre en place des connexions réseau à distance ou des VPN. Ce type de connexions a été rendu possible par l’utilisation de dispositifs de compression, de gestion des flux s’adaptant au débit disponible et du passage transparent par le client Outlook du mode connecté en local ou à distance.
Il n’existe plus avec Outlook 2003, ni avec 2007, de modes connecté ou déconnecté, ce qui permet d’accéder à ses messages, même en l’absence de connexion, car les informations sont mises en cache et sont à jour avec les informations disponibles lors de la dernière connexion.

Owa2.jpg

L’interface générale d’Oulook en accès à partir d’un navigateur (OWA) est très proche de celle qui est disponible avec un client Outlook 2007. Cette capture montre dans le volet de droite au centre le lecteur intégré à OWA 2007 pour la lecture des messages vocaux. Un message vocal peut aussi être écouté sur un téléphone en sélectionnant le bouton « émettre au téléphone » en haut à droite. Enfin, en bas à gauche, on trouve le bouton pour accéder aux documents stockés sur des serveurs de fichiers ou dans des serveurs Sharepoint.


Owa3.jpg

La gestion du calendrier à été particulièrement bien pensée au niveau de l’ergonomie et du fonctionnement au sein d’Outlook et d’Exchange 2007, ce qui en améliore fortement les fonctions et l’usage au sein d’Outlook Web Access.




Outlook Anywhere

La technique qui permet de se connecter à distance en utilisant le protocole HTTPS pour établir des communications RPC MAPI se nomme RPC over HTTPS. Ce terme est maintenant remplacé par Outlook Anywhere, qui peut se traduire par « Outlook partout », ce qui représente bien le fait que le client complet Outlook peut être utilisé de manière souple et transparente par les utilisateurs nomades.

Avec Outlook 2007, Microsoft est allé encore plus loin en permettant la configuration d’Outlook sur un poste connecté à distance en HTTPS, donc sans aucune connexion au réseau local. Cette fonction nommée Autodiscover, qui n’est disponible qu’avec Outlook 2007 et Exchange 2007, a été initialement conçue pour simplifier la configuration des clients Outlook. Une fois le déploiement ou le déroulement du « Setup » effectué, il suffit à l’utilisateur de renseigner son adresse e-mail ; ensuite, la configuration du client Outlook 2007 est entièrement automatique.
Cette fonctionnalité simplifie donc le déploiement et réduit considérablement les coûts liés au support et à la phase de configuration. Mais cette technologie permet aussi une configuration à distance au travers d’une connexion HTTPS et elle apporte une solution simple pour la reconfiguration automatique des profils des utilisateurs dans des situations de changement de nom des serveurs de messagerie, comme c’est le cas par exemple dans la plupart des scénarios de récupération après sinistre (Disaster Recovery).


Gestion des ressources et des agendas

Exchange 2007 marque une évolution importante au niveau de la gestion des agendas avec la possibilité, d’une part, de disposer désormais de « boîtes de ressources » et, d’autre part, la présence d’un « concierge » pour la gestion des agendas.

Les « boîtes de ressources » sont des boîtes aux lettres qui sont destinées à la gestion des réservations, et c’est traditionnellement la gestion des salles de réunions qui est la première application à avoir recours à cette notion. Exchange 2007 prend explicitement en compte la notion de salle de réunion, mais permet aussi la mise en place d’autres ressources, comme des portables, des vidéoprojecteurs, des véhicules, des connexions réseaux au sein d’une salle… La gestion des ressources peut être automatisée (acceptation automatique), mais aussi soumise à certaines conditions qui sont paramétrables. Ainsi, avec Exchange 2007, il devient facile d’organiser une réunion en y intégrant la réservation de la salle.

L’autre nouveauté réside dans l’apparition d’un concierge en charge de la gestion des agendas. Ce composant prend en charge les demandes de rendez-vous pour toutes les boîtes aux lettres. Ainsi, il simplifie la création d’un rendez-vous avec Outlook 2007, ou OWA, en identifiant les meilleures plages disponibles et en prenant en compte les plages d’occupation et de disponibilité des participants. Les plages libres et occupées sont exposées à travers un WebService. De plus, la réservation des ressources est plus simple de par la prise en compte de leurs propriétés (exemple : nombre de places dans une salle, durée maximale d’une réunion, réservation prioritaire pour un service…).


Les 5 rôles au sein des serveurs Exchange
ServerRolesOverviews.jpg
Ce diagramme présente les différents rôles d’Exchange 2007 avec les fonctions assurées par chacun d’entre eux. On constate que le rôle Edge est complètement séparé des autres. Il ne peut cohabiter avec aucun autre rôle. On trouve tous les protocoles d’accès utilisés par les clients au niveau du serveur d’accès client (CAS). La gestion des bases, des agendas, et des dossiers publics est assurée par le serveur auquel est affecté le rôle de boîtes aux lettres. C’est aussi sur ce rôle que sont gérés les mécanismes éventuels de haute disponibilité et de réplication des bases Exchange. Le rôle de serveur Hub Transport assure la gestion du routage des messages, ainsi que l’application de règles de conformité et de sécurisation des messages. Enfin, le dernier rôle concerne la messagerie unifiée qui permet l’accès OVA (Outlook Voice Access), la réception de messages vocaux et de télécopies, et aussi la possibilité de mise en place d’un système de standard automatique.



Les nouvelles fonctions vues du côté administrateur

Certaines fonctions visibles par les utilisateurs sont aussi des évolutions pour les administrateurs, comme par exemple la fonction Autodiscover présente avec l’association Exchange 2007 avec Outlook 2007. Mais dès le premier contact, c’est-à-dire lors de la phase d’installation, l’administrateur est au contact des nouveautés. Le processus d’installation a été entièrement repensé. L’installation d’Exchange 2007 repose sur le nouveau moteur d’installation MSI 3.0, ce qui permet l’utilisation de Microsoft Update pour les mises à jour et les correctifs. L’installation peut s’effectuer en mode graphique ou en mode ligne de commandes.
Dans tous les cas, le processus d’installation repose sur Windows PowerShell et, comme c’est de plus en plus fréquent chez Microsoft, une phase de validation des pré-requis est effectuée avant l’installation. Cette vérification est basée sur l’outil d’analyse ExBPA (Exchange Best Practices Analyzer) afin de valider l’infrastructure déjà mise en place, comme les modifications du schéma de l’annuaire Active Directory (AD) ou le niveau fonctionnel du domaine. Lors des différentes phases d’installation, une vérification et effectuée sur les correctifs appliqués ou non, et une URL est alors indiquée, en cas de besoin de téléchargement d’un correctif ou d’un composant requis pour l’installation d’Exchange 2007.


Administration en mode Powershell

La console d’administration d’Exchange se nomme à partir de cette version « Exchange Management Console », ou EMC en abrégé. Cette console est basée sur une MMC 3.0 (Microsoft Management Console). Toutes les actions disponibles au sein de la console peuvent être exécutées en ligne de commandes (Exchange Management Shell).
À noter que Exchange 2007 a été entièrement conçu pour fonctionner en mode Powershell et que l’interface graphique est faite pour aboutir à la création de la commande PowerShell, qui est alors affichée dans la console Exchange.
La meilleure solution pour disposer de la totalité des commandes et des paramètres possibles reste donc l’utilisation de Powershell. Certaines fonctions ne sont d’ailleurs pas présentes au sein de l’interface graphique, et imposent donc l’usage du langage Powershell.


Exchange Management Shell ou Exchange Powershell

Exchange Management Shell est un composant enfichable de Windows PowerShell qui est construit sur la technologie Windows PowerShell et sur le Framework .Net 2.0. Powershell est relativement intuitif et ne nécessite pas de connaissances en scripting. De par le mode de développement d’Exchange, Exchange Management Shell est un outil qui permet d’administrer et d’automatiser tous les paramètres et modes de fonctionnement des serveurs Exchange 2007. La console graphique est relativement limitée en termes de fonctions et donc certaines tâches d’administration ne sont accessibles que par l’Exchange Management Shell.
Nous n’allons pas décrire ici l’ensemble des possibilités d’Exchange Management Shell, mais il faut savoir qu’une seule ligne de script permet le remplacement de plusieurs dizaines, voire centaines de lignes de script en VBScript ou en WMI. Les commandes peuvent être testées avec le paramètre WhatIf, qui permet une simulation, et non pas une exécution, de la commande. À partir de l’interpréteur de commande, il est possible de lancer le Powershell Windows, de lui intégrer les extensions pour Exchange, puis de lancer au sein de cette session un fichier de script, le tout de manière entièrement automatisée.
Concrètement, il est donc possible de lancer les commandes Powershell pour Exchange de manière automatisée à partir du planificateur de tâches ou encore de quasiment n’importe quel programme, comme un outil de supervision par exemple.


L’architecture complète d’Exchange est répartie en différents rôles

Une autre grande nouveauté apportée par Exchange 2007 est la multiplication des rôles des serveurs. Il existait deux rôles au niveau des architectures Exchange 2003 qui sont Serveur Front-End et Serveur Back-end, c’est-à-dire respectivement soit serveur frontal chargé des communications avec les clients non MAPI, soit serveur de boîtes aux lettres et de dossiers publics. Le rôle de serveur Back-end suffisait à la mise en place d’une architecture de messagerie, le serveur Front-end étant optionnel et plutôt mis en place au sein des architectures importantes.
Avec Exchange 2007, pas moins de cinq rôles sont définis par Microsoft, sans compter le passage obligatoire au mode 64 bits. Mais ces considérations doivent être prises en compte surtout lors de la définition de l’architecture du système de messagerie. Les cinq rôles sont :
• le serveur de boîtes aux lettres (Mailbox) ;
• le serveur de routage interne (HUB) ;
• le serveur d’accès client (CAS) ;
• le serveur de messagerie unifiée (UM) ;
• le serveur de routage externe (EDGE).

Parmi ces rôles, les trois premiers, à savoir Boîtes aux lettres, Client Access et Hub, sont indispensables pour la mise en place d’un service de base. Ces trois rôles peuvent être consolidés sur une seule et même machine dans le cas d’une architecture destinée à une entreprise de petite taille. Ces différents rôles, à l’exception du serveur EDGE, peuvent être installés sur un seul serveur physique ou réparti sur plusieurs serveurs selon les besoins et exigences de votre société. Le serveur Edge, s’il est mis en place, sera alors installé de manière exclusive sur une machine non intégrée au domaine Windows de l’entreprise et connectée sur des réseaux de type DMZ ou Internet.

Cette séparation des rôles permet la mise en place de règles de routage, de sélection des messages, de tri ou encore de filtrage au niveau des serveurs pour apporter encore plus de sécurité et de fonctionnalités, tout en simplifiant fortement l’administration de l’ensemble des serveurs.


Sécurité et Haute disponibilité

En termes de sécurité et de redondance, Exchange 2007 apporte de nombreuses innovations avec la mise à disposition des administrateurs de solutions permettant la réplication automatisée et en temps réel des bases contenant les données des utilisateurs.
Ces technologies qui portent le nom de LCR pour Local Continuous Replication et de CCR pour Cluster Continuous Replication viennent en complément de la technologie de cluster classique.

E2K7HA.jpg

Exchange 2007 propose actuellement trois solutions de haute disponibilité au niveau du rôle des serveurs de boîtes aux lettres qui sont SCC (Signe Copy Cluster), LCR (Local Continuous Replication) et CCR (Cluster Continuous Replication). SCC est un cluster à copie unique qui n’intègre donc que la redondance au niveau des serveurs et pas au niveau de la base. Le LCR intègre une redondance de la base par un mécanisme de réplication des logs avec un seul serveur. Le CCR apporte une solution redondante, tant au niveau des serveurs que des bases avec une réplication des logs.




Cluster à copie unique
 
La notion de cluster Microsoft, telle que définie avec Exchange 2000 ou 2003, existe toujours mais il faut savoir qu’avec ce type d’architecture, les bases Exchange sont partagées entre différents serveurs, et elles ne sont en aucun cas répliquées. Cette solution est maintenant désignée sous le nom de Single Copy Clusters (Cluster à copie unique) ce qui donne l’acronyme SCC. Avec cette solution, on dispose de plusieurs serveurs qui stockent les bases de données et les fichiers de transactions sur une ressource partagée. Avec Exchange 2007, seuls les scénarios Actif/Passif sont supportés. En cas de défaillance d’un serveur actif, un nœud passif est alors activé, et il prend en charge les bases et fichiers de Logs stockés sur le stockage partagé.


Réplication continue en local

La réplication continue en local – aussi appelé LCR pour Local Continuous Replication – permet la mise en place d’une copie locale des bases Exchange et des fichiers de transactions. L’utilisation de cette solution ne nécessite pas la mise en place de serveurs supplémentaires ni de disques partagés. La seule contrainte vient du fait que chaque groupe de stockage ne doit contenir qu’une seule base de données Exchange. Il est recommandé avec cette solution, et aussi de manière générale, de prévoir le stockage des bases de production et des fichiers de transaction sur des disques physiques différents, aussi bien pour les fichiers et bases de production que pour les copies effectuées en LCR.


Réplication continue en cluster

La réplication continue en cluster – aussi appelé CCR pour Cluster Continuous Replication – permet la mise en place d’une copie à distance des bases Exchange et des journaux de transactions. Comme pour le LCR, il ne faut avoir qu’une seule base de données par groupe de stockage. Cette solution permet de copier la base Exchange sur un serveur distant et donc cette solution permet d’éliminer le maillon faible au niveau de l’unicité du stockage rencontrée dans le cluster à copie unique. Le CCR permet ainsi la suppression du « Single Point Of Failure » (SPOF) qui existait jusqu’à présent. Les contraintes pour la mise en œuvre de cette solution sont de disposer d’une machine « passive », mais sur laquelle peuvent être réalisées les sauvegardes – donc sauvegardes réalisables en journée.
Le CCR n’est possible qu’avec des serveurs situés sur le même sous-réseau IP (subnet).  Mais avec les technologies VLAN, cela permet tout de même de disposer les deux serveurs sur des sites géographiques différents si les temps de latence le permettent.
En conclusion, et sans entrer davantage dans les détails de l’architecture Exchange 2007, il est relativement aisé de dresser un bilan largement positif en termes d’avancées technologiques avec, comme principale percée, une possibilité de communication quasi universelle. Avec Exchange 2007, les utilisateurs peuvent accéder aux messages vocaux et électroniques, aux télécopies et aux informations de calendrier situées dans leur boîte aux lettres Exchange 2007, à partir de multiples clients de messagerie, tels que Microsoft Outlook ou Outlook Web Access, ou à partir d’un périphérique mobile sur lequel ActiveSync Exchange est activé, tel qu’un Smartphone Windows Mobile ou un assistant numérique personnel (PDA), ou à partir d’un téléphone. De quoi pouvoir rester en contact, même au bout du monde…


POUR ALLER PLUS LOIN
http://www.msexchange.fr : le site de la communauté francophone Exchange avec la possibilité d’écouter Exchange vous lire au téléphone des messages électroniques.
http://www.microsoft.com/exchange
http://www.msexchange.org


Magazine
Réduire
SIMULATEUR ABOUT GOLF
Un bon swing virtuel
Par Michel Chotard - Copyright L'Informaticien, tous droits réservés

chipplay_1bis.jpgAvec l’ouverture mi-mai de Swing In, à La Défense, les golfeurs vont pouvoir pratiquer leur sport favori dans un simulateur technologiquement avancé. Baptisé About Golf, du nom de la société américaine qui l’a mis au point, cet appareil allie un radar développé par l’armée sud-africaine à un logiciel 3D haute définition. Cette combinaison associe la précision à un rendu graphique époustouflant avec une interface pratique et complète.


La Défense, 13 h. Après une matinée de réunions et un déjeuner pris sur le pouce, l’envie d’aller taper quelques balles de golf vous prend, mais votre parcours préféré est loin et le temps vous manque. Alors que faire ? Soudain, un de vos collègues de bureau vous apparaît comme un sauveur. Depuis la mi-mai, le premier golf « indoor » a ouvert ses portes à Courbevoie, au n° 15 de la rue Rouget-de-Lisle, vous explique-t-il. À 10 minutes à pied de votre bureau, il vous assure que vous allez pouvoir assouvir sans aucun problème cette envie soudaine. Un golf « indoor », comment est-ce possible ? Les propriétaires possèdent-ils suffisamment d’espace pour avoir construit un practice dans un hangar. Pas du tout, car votre collègue explique que Swing In – c’est le nom du lieu – est une « petite révolution » car on y trouve des simulateurs 3D, un espace de vente de matériel et même un bar à vins. Est-ce du déjà vu ? Il existe déjà une quantité de simulateurs, mais celui qu’a développé la société américaine About Golf n’a rien à voir avec les autres, tant il est en avance techniquement.


Une technologie militaire

Distribué en France depuis trois ans par Victory Sports (notre encadré), About Golf Simulator était en sommeil mais la société l’a aujourd’hui complètement relancé. Pourquoi ? « À l’époque, ce produit est arrivé trop tôt sur le marché français. Mais depuis le dernier salon professionnel du golf d’Orlando, aux États-Unis, les nouvelles technologies ont fait une percée dans ce sport avec le développement des GPS ou des caddies électriques intelligents », explique Julien Boyer, le responsable commercial de Victory Sports.
Concernant les simulateurs, il existe plusieurs marques sur le marché utilisant, en général, deux technologies : l’infrarouge ou les capteurs. Le fonctionnement des simulateurs infrarouges est simple. Le calcul de la distance de la balle est effectué dans une zone allant de 80 centimètres à 1 mètre avant l’écran, avec cinq ou six points de repère. La distance parcourue sera donc entièrement dépendante de la localisation de la balle dans cette zone. Pour les capteurs, l’ordinateur réalise son calcul avant et après l’impact. Cela fait donc seulement deux points de repère et surtout, cette technologie est quelque peu limitée. En effet, tout est fonction de la trajectoire du club. Cela signifie que même si le club ne frappe pas la balle, l’ordinateur calculera tout de même la distance.

Quelle est la différence entre About Golf et les autres ? Les concepteurs américains ont choisi d’utiliser le radar comme système de mesure associé à un logiciel – About Golf USA. Mais il ne s’agit pas de n’importe quel radar. « Ils se sont orientés vers une technologie militaire développée par la société sud-africaine EDH qui, à la base, permet de lire les trajectoires de missiles. Le taux d’erreur était de 0,01 % à l’époque », explique Julien Boyer. Bien entendu, ce système a été reprogrammé afin de lire les trajectoires des balles de golf. Ainsi, l’ordinateur mesure la distance dès la frappe de la balle (il ne se passera rien si le club ne touche pas la balle) et intègre tous les paramètres du terrain : fairway (début du parcours), bunker (les fameuses zones de sable), rough (partie où l’herbe n’est pas tondue) et green (zone où se situe le trou). La précision dans le calcul de la distance et dans la localisation de la balle sur le parcours est rendue possible grâce à la multiplicité des points de repère – environ 5 000.

Infamous18_3.jpg


Plus vrai que nature

Le simulateur About Golf tient en quatre éléments : un ordinateur avec écran tactile, un vidéoprojecteur, le radar et une grande toile qui sert d’écran pour le parcours et l’interface. Il ne faut pas oublier la nécessité de pouvoir disposer d’un espace suffisamment grand pour accueillir le simulateur, soit une zone de 7 mètres de profondeur sur 5 mètres de large et 3,1 mètres de hauteur. Pour que le logiciel fonctionne bien, il n’est même pas indispensable de posséder une machine de course. Un PC de 2 gigahertz avec un disque dur de 60 Go – il faut compter 650 Mo pour les fichiers d’installation – et une carte graphique de 128 Mo de mémoire suffisent.

Côté graphisme, les concepteurs ont développé une trentaine de parcours sur la version 2006. Entièrement en 3D, les graphismes sont impressionnants de réalisme.

« Il faut compter entre trois et quatre mois pour développer un parcours. Leur réalisation est effectuée à l’aide d’un GPS, de photos numériques aériennes en haute définition (entre 150 et 200 photos par trou, NDLR) et de relevés topographiques », précise Julien Boyer. Mais la version 2006 devrait paraître bien pâle devant la mouture 2007. Cette année, le fabricant va franchir un palier avec le développement d’un moteur graphique générant de la 3D/E, c’est-à-dire des images de synthèse en haute définition. Résultats des courses, les parcours deviennent toujours plus réalistes avec un ciel plus vrai que nature, des nuages ou de la brume, des objets 3D en mouvement comme des oiseaux, des rivières, des chutes d’eau, du gazon ou encore des arbres…

Infamous18_4.jpg


Les conditions climatiques réelles !

Mais ce n’est pas tout, car ce nouveau moteur permet d’apporter plus de précision dans le vol de la balle ou les collisions avec des parties du décor. On notera que le travail sur les caméras permet de voir le vol de la balle sous quasiment tous les angles. Pour ajouter encore un peu plus de réalisme, les concepteurs ont particulièrement travaillé la zone de frappe au sol. C’est ainsi que toutes les parties du parcours sont représentées par une matière différente. L’herbe synthétique de la zone du fairway sera basse, tandis que celle du rough sera haute et plus dense. Cette nouvelle version proposera également la possibilité de faire des parcours nord-américains et asiatiques en temps réel. Explication : grâce à Internet, il sera possible de jouer en tenant compte des conditions climatiques du moment.

Au-delà de ses somptueux graphismes, About Golf dispose également d’une interface claire et précise qui se gère à partir d’un écran tactile. S’il est bien sûr possible de créer son propre profil, de sauvegarder ou de revoir des parties, About Golf Simulator permet d’interagir sur les tous les éléments. Le joueur choisit ainsi son terrain, sa météo, la force du vent, etc. About Golf est aussi un véritable outil pédagogique. Grâce à DataTrac, un logiciel de suivi, le joueur peut enregistrer tous ses coups et voir s’il a progressé. Enfin, Internet a ouvert de nouveaux horizons au simulateur puisqu’il est possible de faire des concours avec d’autres utilisateurs. On peut aussi enregistrer toutes ses données sur le Web (worldplaygolf.com) et comparer son score avec les autres. Pour disposer d’une telle pépite, il faut compter 46 000 euros HT hors livraison et installation.


Victory Sports
Victory Sports est une filiale du groupe Immacor, spécialisé dans l'immobilier d'entreprise. Créé en juillet 2006, Victory Sports est né de la fusion de Victory Parc et Victory Swing (management de sportifs et événementiel). Victory Sports travaille dans trois domaines : le management d'athlètes, l'organisation d'événements sportifs et la distribution d'articles de sport avec une orientation technologique comme le montre le simulator About Golf. La société est aujourd'hui en négociation pour distribuer de nouveaux simulateurs pour le tennis, le rugby et le football.

Outils
Réduire
OPTIMISATION WEB (1ère partie)
Accélérez votre site Internet
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Le temps des simples sites vitrines est désormais dépassé. Le site Web d’entreprise est désormais lieux d’échanges et d’affaires avec les clients comme avec les partenaires. Dans ce contexte, il se doit d’être disponible, performant et posséder une ergonomie facilitant l’expérience de l’utilisateur pour deux buts précis : le garder sur le site le plus longtemps possible et donner au client l’envie d’y revenir !


Le canal Internet, après bien des vicissitudes, connaît aujourd’hui son heure de gloire. Cette technologie ancienne a démontré sa souplesse et elle ne cesse de s’enrichir comme le montrent les évolutions techniques plus connues sous le vocable de « 2.0 ». Cette place prépondérante a aussi son revers. Les utilisateurs aujourd’hui ne supporteraient plus les affres du téléchargement durant des dizaines de minutes, comme certains l’ont connu du temps des connexions RTC. L’utilisateur s’attend à un site qui répond quasi instantanément, avec une esthétique et une ergonomie facilitant la navigation, mais aussi avec une certaine esthétique. Il doit pouvoir y réaliser les transactions qu’il souhaite, interagir avec les éditeurs du site, parfois aussi avec les autres personnes présentes sur le site. En quelques années, d’une simple vitrine de l’entreprise, le site Web est devenu à la fois un canal de vente mais aussi le lien privilégié de l’entreprise pour communiquer et fidéliser les clients et partenaires de l’entreprise. Pour parvenir à cela, un ensemble d’outils, de pratiques permettent d’optimiser l’accès au site Web et par conséquent l’expérience de l’utilisateur.
Stéphane Jammet, directeur commercial de Neotys, une jeune entreprise spécialisée dans le test et l’audit de site Web, ajoute : « Les sites Web sont aujourd’hui des outils d’images de marque ou de réalisation de chiffres d’affaires. Un point souvent oublié, ils sont aussi des outils aidant à améliorer la productivité interne de l’entreprise. »

EcranNeoLoad2.jpg

Un exemple d’écran de Neoload lors d’un test de charge d’un site Web.




Les outils techniques pour optimiser le site

La partie technique n’est pas à négliger pour optimiser l’accès au site. Pour ceux qui abhorrent ce genre de questions, ils peuvent évidemment s’appuyer sur notre dossier du mois dernier sur les offres des hébergeurs. En revanche, pour ceux qui préfèrent s’en occuper eux-mêmes, il est important de bien réfléchir à l’architecture de la solution et à son dimensionnement.
Ainsi, il faut bien définir le dimensionnement physique des machines (CPU, mémoires des serveurs). Pour la base de données, il est indispensable de disposer d’une bonne indexation des tables. Ce point permet d’améliorer la rapidité des requêtes vers le pool de connexion. Stéphane Jammet précise : « Ce point peut fortement influer sur les performances jusqu’à figer le site. » Le pool du serveur Web doit donc supporter les connexions simultanées et une file d’attente bien dimensionnée lorsque le pool est plein. La question est souvent ardue, mais est assez classique dans les problèmes les plus souvent rencontrés.
L’optimisation de la bande passante est tout aussi importante. Les outils de compression et d’accélération peuvent aider à avoir un trafic plus fluide et plus rapide. La plupart du temps, ces fonctions sont désormais présentes dans les équipements réseaux. La gamme de produits DX, issus des gammes Redline,  de Juniper Networks, intègre des fonctions de compression qui permettent de réduire de 50 % le trafic et d’accepter ainsi plus de visiteurs sur le site. Cette fonction autorise aussi l’optimisation du téléchargement des pages Web dans la même proportion.
Le produit contient également  des fonctions de répartition de charges entre les boîtiers Juniper. Les produits DX supportent aussi des fonctions de cache en Ram.


Pas plus de 3 secondes pour afficher la page d’accueil

Pour Stéphane Jammet, il faut regarder comment s’agencent les différents serveurs dans l’architecture et la répartition de charge avec le serveur proxy, de cache : « Un exemple typique est de laisser le serveur Apache de front end s’occuper des pages statiques et de déléguer les pages dynamiques au serveur d’application. » Ces points d’infrastructure réglés, il s’agit de voir si tout cela fonctionne de manière optimale. Stéphane Jammet ajoute : « Il existe en fait deux types principaux d’outils à ce stade, qui travaillent sur les infrastructures existantes : les outils de tests et de simulation de charge et de profiling. » Il poursuit : « Le principe sur les deux outils sont les mêmes. La première famille propose le scénario d’un utilisateur sur le site et de le rejouer par le nombre d’acteurs que l’on veut simuler. L’important est de rendre ce scénario réaliste avec des recherches, des clics sur des fiches produits. Notre outil, Neoload, autorise les paramétrages pour rendre les scénarios dynamiques. On peut ainsi le jouer avec différents pools de charge selon le but du test. Cela permet de s’assurer qu’il n’y a pas de dégradation des performances. Cela permet de déterminer les charges maximales et les temps de réponses. » Il donne des ordres d’idées sur ce dernier point : « Pour une page d’accueil, ou classique, il est raisonnable de ne pas dépasser trois secondes. Pour des pages de résultats de recherche ou d’actions lourdes, dix secondes semblent raisonnables. »
La construction du scénario de test dépend évidemment de la complexité de l’application. Il est à noter que ces problèmes de montée en charge sont en général rares et ne se découvrent que dans des situations extrêmes ou dans des conditions difficiles. Ils surviennent alors soudainement. Ainsi, ils sont rarement anticipés et le site « tombe ».
En comparaison, les outils de profiling réalisent la même chose, mais lorsque le serveur est en activité. À distance, l’outil récupère les informations sur les temps de réponse, les temps de traitement sur telle ou telle ligne de code. Lors d’un dysfonctionnement, l’outil est à même de traiter certaines questions, comme celles sur la configuration du serveur, les requêtes mal optimisées ou les applications mal conçues.

loadtest-infrastructure-fr.jpg

Un exemple d’architecture de test.




Faire beau mais efficace !

Comme le précise Stéphane Jammet, les principaux problèmes rencontrés chez les clients de Neotys concernent les applications qui sont souvent développées rapidement avec des phases de tests réduites pour des raisons de temps et de coûts. Les conséquences sont souvent désastreuses. Dans ce contexte, il est parfois nécessaire de rappeler certaines évidences.
Stéphane Jammet rappelle un incident hélas classique : « Par exemple, le code d’une application qui ne fonctionne pas en accès concurrent. Quand on s’en rend compte, il est parfois trop tard dans le projet ! Les principaux problèmes que nous rencontrons concernent le développement des applications. Le code est souvent assez inefficace. En général, il est bon que les pages ne soient pas trop grosses et d’utiliser les CSS (Cascading Style Sheet) à bon escient. Il en va de même pour les Javascripts. Un autre problème classique concerne la mise en cache et la conception des requêtes. Nous rencontrons souvent des applications qui envoient des centaines de requêtes à la base de données alors qu’il serait possible d’en faire avec moins. »
La conception de l’application ne doit cependant pas faire oublier l’ergonomie et la simplicité de la navigation. Ainsi, si l’internaute attend longtemps pour une page, il faut qu’elle en vaille la peine.
L’utilisateur souhaite souvent savoir ce qu’il va obtenir lorsqu’il réalise une action sur le site en évitant de lui demander à chaque page les mêmes renseignements. Il est préférable d’éviter d’amener l’internaute vers des zones qu’il ne peut utiliser.
Enfin, il faut apporter l’information lorsqu’elle est nécessaire en évitant de jouer sur l’implicite ou de se mettre à la place de l’internaute ou de l’utilisateur. En clair, il vaut mieux faire simple avec une navigation aisée en se référant à un principe simple : l’utilisateur doit savoir d’où il vient, où il est et où il va. L’appui lors de la conception d’une cinématique décrivant précisément l’enchaînement et le contenu réel de chaque page peut être un très bon guide.
Dans son ouvrage, « La conduite de projet Web », Stéphane Bordage indique que celle-ci remplit principalement trois buts en faisant ressortir les erreurs de conception, l’amélioration de l’ergonomie, l’aide à la détermination des gabarits pour la charte graphique du site. Il est possible de faire beau et d’ajouter tout plein de choses qui bougent, qui « flashent », ou qui « popent-up », mais l’efficacité doit primer. Il ne reste ensuite qu’à optimiser le marketing, le positionnement ou le référencement du site. Mais là, c’est encore une autre histoire !  

Dans le prochain numéro : les outils pour améliorer la visibilité d'un site sur Internet.

Métier
Réduire
Indépendant-salarié, un statut à part
Par Sylvaine Luckx - Copyright L'Informaticien, tous droits réservés

Souvent entre plusieurs employeurs, l’indépendant semble tiraillé en tous sens. Pourtant, on rencontre encore des indépendants heureux. Gildas Delon en est un exemple, du fait de la diversité de ses missions.

C’est l’homme de l’ombre. Il est furtif, discret, insaisissable. Il se montre en même temps, quand on réussit à l’attraper au vol dans un couloir, disponible, ouvert et à l’écoute. Toujours souriant et à la disposition d’utilisateurs parfois néophytes de l’informatique, Gildas Delon est un informaticien heureux. Mais Gildas Delon a besoin de mouvement. On ne le verrait pas dans une grande entreprise, embusqué derrière ses serveurs sans sortir de son bureau. Qu’on se le dise : Gildas Delon n’aime pas l’immobilité.
Cet autodidacte a passé un bac en comptabilité et gestion. Passionné d’informatique – « J’en fais depuis l’âge de 12 ans », déclare-t-il – il n’est jamais aussi heureux que lorsqu’il peut intervenir pour résoudre des problèmes. Une formation d’un an à l’AFPA lui permet de compter sur un diplôme en informatique et télécom. Pour se lancer, il collabore avec le musée Branly, dont le DSI lui mettra le pied à l’étrier.


« Ma grande force, c’est d’être multi-système »

Il travaille alors pour la mise en place de l’informatique de plusieurs événements de grande envergure, comme la signature du Traité européen de Nice. Il met au point le réseau informatique pour des réunions de haut vol et des sommets de chefs d’État, pour lesquels il faut installer la salle de presse et déployer une infrastructure complète et complexe, au service des grands de ce monde. Rude école ! Rien ne doit être laissé au hasard, tout doit fonctionner comme sur des roulettes. Gildas Delon s’y emploie avec efficacité, et va parfaire ses connaissances informatiques. « Ma grande force, établit-il, c’est d’être multi-système, et de ne pas me limiter à une infrastructure. » Lors de ces réunions de grande ambition, il apprend et se forme : « Ça reste de très bons souvenirs, j’ai beaucoup appris », poursuit-il.
Déployer des salles de presse pour des utilisateurs exigeants et rivés à leur écran, comme les journalistes, ne lui fait pas peur. Dévoré par le démon de l’indépendance, il crée sa société et s’installe en nom propre. « Mais, admet-il, le fait d’être indépendant, seul dans son coin, n’est pas très crédible. » Il travaille donc à mi-temps pour First Finance, une entreprise de formation dans le domaine de la finance haut de gamme. Les apprenants et les stagiaires se succèdent dans les salles de formation, pendant que Gildas, calme, serein et disponible, remet les stations de travail à niveau. Un travail qui est loin d’être de tout repos, mais qui lui convient parfaitement. « Je viens parfois la nuit, et je travaille 15 à 20 heures par semaine pour First Finance. Le matériel est très sollicité, tous les jours, par les apprenants dans les salles de formation. Il faut en permanence le maintenir et le rendre opérationnel. » Son double statut d’indépendant et de salarié lui convient parfaitement, et il enchaîne les missions sans discontinuer : « Je fais des missions ponctuelles, je vois des gens différents, c’est très intéressant. Ce qui m’intéresse, c’est la mise en réseau des stations, le travail dans sa diversité », déclare-t-il.

Satisfait de son sort de salarié et d’indépendant, Gildas Delon continue son travail. On l’aperçoit, embusqué derrière une station de travail, en train de remettre à niveau un serveur ou de maintenir une application. Aucune chance que l’ennui ne le guette. Gildas Delon enchaîne les missions et aime ça. Ce qui le fait avancer dans son métier, c’est à la fois une certaine sécurité de l’emploi, et en même temps la variété dans les missions. Cet atypique, qui revendique son travail à cheval sur deux postes comme une source d’équilibre, a besoin d’avancer en permanence : « Ce qui me fait évoluer, c’est le fait d’apprendre, et d’être en constante évolution. » Ce qui semble plutôt bien lui réussir.  



Un site pour les indépendants
Edité par la société Cogitem, qui anime le site cvanonyme.fr, Proconsult est un nouveau site visant à mettre en relation prestataires de conseils et indépendants ou personnes en portage salarial. Le site propose un accès à une bibliothèque de CV de consultants sélectionnés pour leur compétence et leur expertise vérifiée et à une base d’offres de missions de conseil. Il est ainsi possible de déposer une offre de mission avec le profil du consultant recherché et de consulter les CV disponibles. De la même manière, les consultants peuvent accéder à la base des offres de missions et mettre leur CV en ligne. Ceux-ci sont rendus anonymes et vérifiés avant leur mise en ligne. Ces services de consultations sont gratuits. Seuls les services de mise en relation sont payants sous forme d’abonnement à partir de 200 ? par mois. A partir de cette mise en relation, les parties gardent toute liberté et Proconsult ne perçoit pas de commissions sur la réalisation des contrats. Les données du site sont évidemment protégées et strictement confidentielles. La solution est hébergée chez OVH.




Un master pour les consultants ERP

En partenariat, le cabinet CSC, cabinet de conseil et d’intégration de nouvelles technologies, et l’Université de Paris-Dauphine vont organiser un Master en Consulting & ERP, dont la première promotion sera accueillie en septembre prochain. L’initiative est plutôt bienvenue devant le manque prévisible de compétences dans le domaine.
Le programme pédagogique a été conçu par CSC : 150 heures de cours seront animées par les experts du domaine de CSC. Le but du cursus est de rester très opérationnel pour assurer un emploi à la suite de la formation. CSC s’engage à la fin du cursus à proposer un stage d’apprentissage, puis une carrière, aux étudiants diplômés au sein même de ses équipes ERP. Ce diplôme est organisé avec une université américaine, la fameuse Georgia Tech d’Atlanta. La formation est bilingue et destine les étudiants à des carrières de consultants en management, en mise en œuvre d’ERP et de responsable de projet ERP en maîtrise d’ouvrage comme en maîtrise d’œuvre.


Le MUNCI et Nat System se mobilisent pour les demandeurs d’emploi

L’association professionnelle et l’éditeur d’outils de développement vont proposer des formations ou des remises à niveau technique pour les demandeurs d’emploi et les professionnels indépendants.
Cette initiative vise à apporter des formations à des publics qui sont exclus des formations du fait de leur coût. Tout demandeur d’emploi du MUNCI pourra suivre des formations sur les outils de Nat System, éditeur d’un AGL J2EE en cas de places disponibles, et des formations à prix réduits pour les indépendants. Pour le MUNCI, l’initiative a vocation à être étendue à tout éditeur intéressé. En échange, le MUNCI s’engage à relayer les actualités des éditeurs auprès de ses adhérents et sur son site Internet.

Des formations sur la SOA dans le cadre du DIF

Softeam est une SSII qui innove. Elle propose des cycles courts de formation sur la mise en œuvre d’architectures SOA, avec quatre cursus très opérationnels de deux à trois jours, dans ses différents centres en France : Paris, Nantes, Rennes et Sophia-Antipolis. La particularité de ces formations est qu’elles ont été conçues pour entrer dans le cadre du Droit Individuel à la Formation (DIF), et d’être rapidement transposable en entreprise par le stagiaire.
Les formations couvrent la formation générale sur les fondamentaux de la démarche SOA et les bonnes pratiques, les connaissances indispensables pour établir une stratégie de mise en place et l’impact sur l’existant et deux cursus sur les développements de Web Services en Java et en C#.
Le prix de ces formations s’échelonne de 1 080 à 1 290 €. La formation permettra aux développeurs de débuter efficacement les phases en amont de leurs projets et d’aller jusqu’à la réalisation complète de leurs développements en utilisant le langage de leur choix. Grâce à cette approche globale, ils seront à même d’acquérir une méthodologie profitable qui les accompagnera sur l’ensemble du cycle de conception de leurs projets.

EDS joue la carte de l’université

Le spécialiste de l’outsourcing et des services a noué d’importants partenariats avec des écoles d’ingénieurs et des universités françaises dans le but de soutenir sa politique de recrutement. Alors que EDS annonce vouloir recruter près de 600 personnes cette année, l’entreprise américaine prend les devants en allant à la rencontre des étudiants par de multiples programmes vers des écoles et des universités. Ces actions sont personnalisées pour chaque établissement et portent sur des thèmes variés : interventions de cadres de l’entreprise lors de conférences techniques ou métier, soutien aux écoles sur le plan académique, aide aux projets des étudiants, cursus de formation, parrainages de promo, participation au jury, comité scientifique, propositions de stages et d’emplois. Prochains rendez-vous : IUT Paris V (31 mai), Apec (7 juin), Forum de l’apprentissage de Paris-XIII (7 juin) et les Jeudis de l’Emploi informatique (27 septembre).
Livres
Réduire
inria.jpgUn pionnier toujours en pointe

Si l’Inria ne connaît pas une grande notoriété auprès du grand public, l’institut reste une des grandes réussites de l’informatique française. Pionnier en son temps, alors que le mot informatique n’était pas encore dans le dictionnaire et que les gouvernements en place s’essayaient à un plan calcul, l’Inria continue son chemin avec des partenariats revigorés auprès des grands de l’industrie du secteur, et ouvre la voie sur bien des axes de recherche fondamentale.
L’ouvrage se trouve être non seulement une histoire fidèle de cette institution, mais aussi des interrogations politiques qui ont jalonné son histoire. Plus largement, le livre raconte le cheminement du monde de la recherche en France dans la deuxième moitié du siècle dernier. Contrairement à nombre d’ouvrages historiques, le contenu de celui n’est pas figé et s’intéresse à une histoire en marche avec le présent et le futur de l’Inria avec ses travaux sur les futures infrastructures de réseaux, le traitement des informations et des données multimédias, la sécurité des systèmes… Fort de 3 600 employés, dont 2 800 scientifiques avec un budget annuel de 160 M€, l’Inria continue son œuvre tout en ayant atteint un âge respectable. Celui de la maturité de son modèle ?

Histoire d’un pionnier de l’informatique, 40 ans de recherche à l’Inria
Auteurs : Alain Beltran et Pascal Griset
Éditeur : EDP Sciences, 287 pages, 29 euros environ



Linux pour les pros

12074.jpgLa plupart des ouvrages sur l’administration du système Linux sont d’origine américaine. L’ouvrage d’Eyrolles est la référence française dans le domaine. Il se présente sous la forme d’un guide d’auto-formation en 18 modules qui couvrent tous les domaines de l’administration de système libre dans ses versions 2.4 et 2.6, dont la sécurité. Ce guide a pour but de former les utilisateurs Unix ou Linux à l’administration de ce dernier.
Bon, ici, on apprend à la dure ! Le livre privilégie les modes commandes plutôt que les outils graphiques que proposent désormais certaines distributions.
Gestion de fichiers et des utilisateurs, sauvegarde, restauration, installation, optimisation des performances, rien n’est oublié ! 170 exercices corrigés complètent cette formation très sérieuse. Dans leur préambule, les auteurs précisent que l’ouvrage est une bonne préparation pour les deux premiers niveaux de la certification LPIC délivrée par le LPI et fourni, entre autres, par SuSe et IBM. On les croit aisément ! Bref du sérieux, du solide, proposé par deux formateurs pour le quotidien de l’administrateur. Pour les personnes déjà certifiées, de quoi largement réviser ses gammes et encore s’améliorer. Une somme !

Linux Administration
Auteurs : Jean-François Boucheaudy et Gilles Goubet
Éditeur : Collection Best of, Éditions Eyrolles, 850 pages, 25 euros environ


Développement : « L’orienté objet », 3e !

Prédominants aujourd’hui, les langages objets investissent tous les secteurs du logiciel. Pour approfondir les connaissances dans le domaine, les Éditions Eyrolles enrichissent par une troisième édition leur ouvrage « L’orienté objet ». Au programme, une étude approfondie des mécanismes de la programmation objet avec de nombreux exemples empruntant aux principaux langages objets.
Les autres aspects ne sont pas oubliés. Web services, bases de données objet, design patterns sont de copieux desserts !

L’orienté objet, 3e édition
Auteurs : Hugues Bersini et Ivan Wellesz
Éditeur : Éditions Eyrolles, 602 pages, 32 euros environ
Bonnes Feuilles
Réduire
Bonnes feuilles
Aller plus loin avec Skype

12099.jpg

Téléphonie sur IP
De Laurent Ouakil et Guy Pujolle,
éditions Eyrolles, 458 pages,
45 euros environ.

Dans leur ouvrage, Laurent Ouakil et Guy Pujolle nous offrent un vaste panorama des technologies et des solutions de téléphonie sur IP. S’adressant aux ingénieurs réseaux, aux responsables télécoms en entreprise, mais aussi aux étudiants ou aux fanas de Skype, le livre présente les dernières évolutions sur de nombreux logiciels. Notre sélection pour ces  bonnes feuilles : les fonctions avancées sur Skype, le logiciel de ToIP certainement le plus répandu dans le monde.

Certaines options évoluées de Skype permettent d’améliorer la convivialité et l’utilisation du logiciel. Il est ainsi possible d’ouvrir plusieurs instances de Skype, de travailler en ligne de commande, de créer des commandes textuelles ou d’intégrer Skype dans ses pages Web et courriers électroniques.


Ouvrir plusieurs instances de Skype

Si l’on souhaite partager son poste de travail avec des amis ou des membres de sa famille, il peut être utile de lancer plusieurs instances du logiciel. Un même utilisateur peut aussi avoir plusieurs comptes, par exemple en dissociant comptes privé et professionnel. Skype empêche par défaut le lancement de deux instances du programme, mais il est possible de contourner cette contrainte.
Deux courtes étapes sont nécessaires pour cela. La première, effectuée une fois pour toutes, consiste à créer un second compte utilisateur sous Windows, et la seconde à lancer le programme sous le compte utilisateur que l’on vient de créer.
Nous allons détailler ces deux opérations. Nous supposons que nous disposons de deux comptes Skype, qu’une première instance de Skype est déjà lancée sur le poste de travail avec le premier compte Skype et que nous souhaitons ouvrir une nouvelle instance avec le second compte.
figure1.jpg
Figure 1. Création d’un compte d’utilisateur.

figure2.jpg
Figure 2. Menu contextuel Windows.

figure3.jpg

Figure 3. Exécuter Skype sous un autre compte Windows.

Pour la création d’un nouveau compte utilisateur sous Windows, il faut se rendre dans la section Comptes d’utilisateurs du Panneau de configuration (voir figure 1) et sélectionner Créer un nouveau compte. Il suffit alors d’entrer un nom associé à ce compte, qui peut être quelconque, et de lui attribuer les droits d’administrateur. En cliquant sur l’icône aussitôt créée pour ce compte, on peut attribuer un mot de passe au compte.

Pour exécuter Skype sous le compte qui vient d’être créé, il faut se rendre à l’emplacement où le programme a été installé. Ce chemin a été indiqué lors de l’installation du logiciel Skype. Par défaut, le répertoire utilisé se trouve dans C:\Program Files\Skype\ Phone.

Il suffit d’ouvrir ce répertoire puis, par un clic droit sur l’icône de Skype, de choisir l’option « Exécuter en tant que… » dans le menu contextuel (voir figure 2).

Une nouvelle fenêtre propose de s’identifier sous un autre nom, comme illustré à la figure 3. Il suffit de sélectionner la case « L’utilisateur suivant », pour spécifier le nom et le mot de passe associés au nouveau compte Windows.

Après avoir renseigné les informations fournies à l’étape de création du compte Windows, Skype peut se lancer sous une nouvelle instance, et il devient possible de s’identifier sous un autre compte Skype à partir  de cette instance.
On obtient ainsi deux exécutions différentes du même programme, comme l’illustre la figure 4.
Les deux icônes affichées dans la zone d’état système (voir figure 5) n’étant pas dissociables l’une de l’autre, il est recommandé de ne pas les utiliser par clic droit, mais de se contenter de les activer par double clic pour faire apparaître la fenêtre principale permettant d’activer le compte désiré.

figure4.jpg

Figure 4. Affichage simultané de deux instances de Skype.



figure5.jpg

Figure 5. Icônes système des deux instances de Skype.

De cette manière, on peut lancer autant d’instances du programme Skype que l’on souhaite, et ainsi recevoir les appels destinés à chacun des comptes associés.
Il est possible d’optimiser le lancement de la seconde étape en créant un raccourci vers Skype (par clic droit sur l’icône de Skype puis en sélectionnant Créer un raccourci. Une fois le raccourci créé, il suffit de le sélectionner par clic droit et de cliquer sur Propriétés.
Dans l’onglet Raccourci, il faut ensuite cliquer sur le bouton Avancés puis sur la case « Exécuter en utilisant d’autres informations d’identification » avant de valider (voir figure 6). Désormais, chaque fois que l’on clique sur ce raccourci, on affiche la fenêtre de saisie de l’identifiant et du mot de passe du compte Windows avec lequel on souhaite exécuter le logiciel Skype.
figure6.jpg

Figure 6. Propriétés avancées de Skype.

Une méthode encore plus rapide consiste à utiliser des programmes comme FireDaemon Windows Service – gratuit, mais en anglais. FireDaemon Windows Service a pour vocation d’automatiser la saisie des paramètres d’authentification Windows lors du lancement de programmes.
Après avoir téléchargé, installé et exécuté l’application, une interface invite à saisir le nom de l’application à lancer et les login/mot de passe associés. De cette manière, il n’est même plus nécessaire de renseigner les informations d’authentification Windows, et le lancement de la seconde instance de Skype est immédiat.



Il existe cependant une limitation à l’utilisation de ces méthodes, qui vient de ce qu’une seule carte son ne permet pas de converser simultanément sur plusieurs comptes Skype lancés sur un même PC. La solution à ce problème consiste tout simplement à installer plusieurs cartes son et à associer à chaque compte un périphérique différent.
Comme illustré à la figure 7, la section Options du menu Outils de Skype propose un onglet Audio qui permet de réaliser cette association. Si l’on dispose d’un terminal téléphonique dédié à Skype, comme on en trouve dans le commerce, il est possible de le spécifier dans cette section et de s’en servir comme périphérique complémentaire à la carte son du PC.

figure7.jpg

Figure 7. Sélection du périphérique audio.




Options en ligne de commande

Skype peut être exécuté par le biais d’options complémentaires exécutables en ligne de commande.
Les quatre options suivantes sont disponibles :
• /nosplash. Par défaut, Skype affiche son logo avant le lancement du logiciel. Cette option interdit l’affichage du logo et lance immédiatement le logiciel.
• /minimized. Par défaut, Skype ouvre sa fenêtre principale en premier plan. Cette option permet de minimiser le logiciel directement dans la zone d’état système lors de son lancement.
• /callto:numéro_ou_identifiant_à_appeler (en remplacement de la partie numéro_ou_identifiant_à_appeler par un identifiant Skype ou un numéro de téléphone). Cette option permet d’appeler automatiquement le numéro ou l’identifiant Skype correspondant par simple clic sur l’icône de ce raccourci. Elle suppose bien sûr que les crédits soient suffisants pour cet appel, s’il est payant. Dans le cas contraire, un message d’erreur est retourné. Cette option peut se révéler utile pour des contacts très fréquemment appelés.
• /shutdown. Cette option ferme directement le programme Skype. Pour spécifier ces options, il faut créer un raccourci vers Skype (par clic droit sur l’icône de Skype puis en sélectionnant Créer un raccourci) puis sélectionner ses propriétés par clic droit à nouveau et en choisissant Propriétés dans le menu contextuel.
Dans l’onglet Raccourci, la case Cible permet de personnaliser le lancement avec les options désirées en ajoutant après les guillemets les options qui seront activées lorsqu’on cliquera sur cette icône (voir figure 8).

figure8.jpg

Figure 8. Options de raccourci.




Commandes textuelles

Au cours d’une conversion par messagerie instantanée, il est possible d’utiliser un certain nombre de commandes textuelles dans la zone de saisie de texte. Toutes ces commandes doivent être précédées d’un slash.

En saisissant la commande /help, on obtient le récapitulatif des commandes disponibles, dont voici le détail :
• /add identifiant_skype. Permet d’inviter un contact à se joindre à la conversation en cours (en remplaçant identifiant_skype par l’identifiant du contact à inviter). Par exemple, /add Nathalie ajoute l’utilisateur Nathalie à la conversation en cours.
• /topic sujet. Permet de spécifier ou modifier le thème de la conversation. Dans une conversation avec de nombreux participants, il est ainsi possible d’indiquer clairement en haut de la fenêtre le thème de la discussion. C’est une manière d’orienter ou d’animer le dialogue. Par exemple, /topic Bon Anniversaire Simon ! spécifie en haut de l’écran le sujet « Bon anniversaire Simon ! ».
• /me message. Permet de mettre l’accent sur une action par un message particulier qui sera mis en relief. Cette commande est suivie d’un message textuel. Par exemple, si Rebecca saisit la commande /me est au téléphone avec Henri !, chaque utilisateur avec qui Rebecca est en conversation verra s’afficher dans sa fenêtre le message
« Rebecca est au téléphone avec Henri ! » encadré et centré.
• /history (sans argument). Affiche l’historique des messages.
• /find texte_à_chercher. Recherche dans la communication en cours le texte indiqué. La première occurrence est sélectionnée et surlignée. Les suivantes sont accessibles en appuyant sur la touche F3.
• /fa ou /(sans argument). Répète la recherche précédemment effectuée. La commande a le même effet que la touche F3.
• /leave (sans argument). Permet de fermer la fenêtre de la messagerie instantanée.
• /alertson texte. Active une alerte qui sera déclenchée en mettant en surbrillance le texte repéré dans une conversation. C’est notamment utile si l’on ne souhaite pas suivre la totalité d’une conversation avec de multiples intervenants, mais que l’on désire être alerté par des éléments susceptibles de nous intéresser. Ces alertes peuvent être annulées en saisissant simplement la commande sans argument textuel.
• /alertsoff (sans argument).  Désactive les alertes d’avertissement de messages, ce qui évite que la fenêtre de messagerie instantanée clignote dans la barre des tâches à chaque nouveau message.
• /call identifiant_skype. Permet d’appeler au téléphone (en remplaçant identifiant_skype par l’identifiant du contact à inviter). Par exemple, /call Marc lance un appel téléphonique à l’utilisateur Marc.


Intégrer Skype dans ses pages Web et ses e-mails

Si un utilisateur maintient un site Web, il peut insérer dans ses pages des liens invitant les internautes à le contacter par Skype pour obtenir des informations complémentaires ou simplement converser.

Il suffit pour cela d’insérer des balises spécifiques dans ses pages Web. Ces balises s’insèrent comme un code HTML dans un lien hypertexte.
La syntaxe générale d’une balise Skype respecte la forme suivante :

<a href= "skype:contact(s)?action">
Message textuel
</a>


Cette balise comporte trois parties à remplacer selon les usages :

• contact(s). Spécifie le contact Skype concerné par le lien hypertexte. Le contact peut être indiqué par un identifiant Skype, ou par un numéro de téléphone standard. Il peut être unique ou concerner plusieurs contacts séparés par des points-virgules.
• Action. Spécifie l’action à enclencher lors d’un clic sur le message textuel. Les actions les plus classiques sont les suivantes :
– call : appelle le ou les contacts mentionnés ; c’est l’action par défaut ;
– add : ajoute le ou les contacts mentionnés à sa liste de contacts ;
– userinfo : affiche le profil du ou des contacts mentionnés ;
– chat : lance une conversation par messagerie instantanée avec le ou les contacts mentionnés ;
– sendfile : envoie un fichier aux contacts mentionnés ;
• Message_textuel. C’est le message textuel affiché sur la page Web à l’internaute.

Par exemple, pour lancer une conférence audio avec les utilisateurs guy.laurent et dupont.durand en cliquant sur un lien hypertexte de sa page Web, il suffit de placer la balise suivante dans le code source de la page, à l’emplacement où l’on souhaite afficher un message textuel invitant l’utilisateur à cette conférence :

<a href="skype:guy.laurent;dupont.durand?call">
Téléphoner à Guy Laurent et Dupont Durand
</a>


En cliquant sur ce lien, le navigateur de l’internaute instancie automatiquement l’application Skype et initie l’appel vers ces correspondants. Bien évidemment, cela suppose que l’application Skype soit installée sur le poste de l’internaute. Dans le cas contraire, le navigateur de l’internaute ne parvient pas à interpréter ce code Skype et lui indique une erreur.

De la même manière, les coordonnées Skype peuvent être indiquées en signature d’un e-mail, pour permettre au correspondant de lancer un appel d’un simple clic sur l’e-mail.


Utiliser une image de statut

figure9.jpg

Figure 9. Image de statut Skype.

Ces balises permettent aux internautes de contacter les auteurs des pages Web ou des courriers électroniques qui les comportent, mais pas d’être informés de la disponibilité de ces derniers. Pour faciliter la mise en relation, Skype propose des scripts qui testent la présence des utilisateurs et l’affichent sous la forme d’une image dynamique. Ce service est appelé SkypeWeb.
L’image permet non seulement de spécifier les coordonnées (identifiant ou numéro de téléphone) d’un contact Skype, mais aussi de détecter et d’afficher son statut de disponibilité.

Ainsi, les internautes peuvent savoir avant d’appeler si leur correspondant est en ligne.
Un exemple d’image de statut Skype est illustré à la figure 9. Il est possible de personnaliser cette image.

Pour afficher son statut, il faut tout d’abord avoir autorisé la diffusion de cette information dans le logiciel Skype lui-même. Pour cela, il faut sélectionner Options dans le menu Outils, puis, dans la fenêtre des options qui s’ouvre, cocher la case « Permettre que mon statut soit visible depuis le web » de la section Filtres & Vie privée (voir figure 10).

figure10.jpg

Figure 10. Autoriser la diffusion de son statut.



Il ne reste qu’à ajouter dans sa page Web ou comme signature de ses e-mails l’icône affichant ce statut.
Nous allons utiliser une icône disponible sur le site de Skype, mais il est possible d’en choisir une autre (à l’adresse http:// www.skype.com/go/skypebuttons) ou d’en générer une soi-même.
Dans le corps du code de la page Web (après la balise <body> et à l’emplacement où l’on désire ajouter l’icône Skype), il suffit d’insérer la section de code suivante (ce code affiche une icône récupérée sur le site de Skype et lui donne l’apparence correspondant à son propre statut) :

<script type="text/javascript" src="http://down
load.skype.com/share/
?skypebuttons/js/skypeCheck.js">
</script>
<a href="skype:guy%2Elaurent?call">
<img src="http://mystatus.skype.com/bigclassic-
/guy%2Elaurent" style="border:
?none;" width="182" height="44" alt="Mon statut
Skype" />
</a>


Dans les trois premières lignes, on charge une page de script en langage JavaScript disponible sur le site de Skype, afin de vérifier les statuts des utilisateurs. Comme l’indique la balise suivante <a href>, un clic sur l’image dont le code suit appelle l’utilisateur guy.laurent (le code %2E correspond au point). L’image est renseignée ensuite. Son emplacement se trouve directement sur le site de Skype, à l’adresse http://mystatus.skype.com/bigclassic. Il n’est donc pas nécessaire de la fournir dans sa page Web.

En remplaçant le mot bigclassic dans l’adresse précédente par balloon, smallclassic, smallicon ou mediumicon, on obtient d’autres images utilisables de la même manière.

Toutes ces images utilisent un paramètre qui est l’identifiant de l’utilisateur Skype et qui doit être fourni à sa suite. En utilisant le script inséré juste au-dessus, ce paramètre permet d’afficher l’image selon le statut réel de l’utilisateur dont l’identifiant est fourni. Périodiquement, le statut de l’utilisateur est testé, et l’image correspondante actualisée au besoin.
Indépendamment des balises, mentionnons l’existence d’un module additionnel pour les navigateurs Internet Explorer et Mozilla Firefox. Ce module se présente sous la forme d’une barre d’outils appelée Skype Web Toolbar, qui s’intègre au navigateur une fois son installation effectuée. Dès lors, tous les numéros de téléphone et identifiants Skype diffusés sur le Web sont automatiquement reconnus et exploitables par le logiciel en un simple clic.


Recommandations et résolution de problèmes

Il est vivement recommandé d’utiliser un microcasque de bonne qualité, faute de quoi la communication s’en ressent.
Dans la majorité des cas, les problèmes rencontrés se résolvent facilement en vérifiant un certain nombre de points élémentaires. Voici quelques recommandations simples en cas de problèmes rencontrés dans l’utilisation de Skype :
• vérifier sa connexion Internet en ouvrant une page Web avec son navigateur ;
• éviter d’effectuer des transferts en parallèle d’une communication, surtout si le débit est limité. Skype nécessite un débit minimal pour fonctionner, et il revient à l’utilisateur de veiller à en disposer. Dans la pratique, un débit insuffisant peut provoquer des hachures lors de la communication ou des interruptions désagréables. Elles peuvent provenir du poste de travail de l’appelant comme de celui de l’appelé ;
• un simple redémarrage résout bien des problèmes mystérieux ;
• tester une communication en se connectant sur son compte à partir d’un autre poste de travail. Cela permet de savoir si le problème provient du compte Skype ou du poste de travail utilisé. Si la communication demeure possible sur un autre poste de travail, le problème peut être localisé sur le premier poste. Si l’on ne dispose pas d’un autre poste de travail, on peut toujours utiliser le même poste, mais avec un compte Skype différent ;
• s’assurer que d’autres utilisateurs arrivent à communiquer. Si le problème est situé au niveau des serveurs de Skype, il faut attendre le rétablissement du service ;
• vérifier (en le saisissant à nouveau) que le mot de passe du compte est correct et n’a pas été modifié ;
• tester une communication avec le contact test « echo123 ». Cela indique de manière fiable si le microcasque fonctionne correctement. Au besoin, mettre à jour le pilote de sa carte son ;
• utiliser les guides, FAQ et aides en ligne de Skype. Un grand nombre de ces documents sont disponibles en français.

Si ces conseils de base ne suffisent pas à la résolution de problèmes plus complexes, les forums spécialisés sur Skype sont généralement assez réactifs.


Conclusion

logo.jpg
En proposant une solution de ToIP logicielle simple, fiable et bon marché, Skype s’est fait un nom et a perturbé un équilibre que l’on croyait établi. Skype grandit chaque jour au point de devenir incontournable dans le grand public et de s’installer progressivement dans les entreprises.
Les forfaits de téléphonie illimitée proposés dernièrement par de nombreux opérateurs remettent cependant en cause le modèle même de Skype. Reste qu’avec Skype, l’utilisateur peut être mobile et disposer d’un indicateur de présence, de la vidéo en plus du texte, des échanges de fichiers et des conférences à plusieurs.

À sa défaveur, Skype ne repose sur aucun protocole normalisé et n’est pas ouvert aux protocoles concurrents. Si Skype ne s’ouvre pas à la compatibilité, il risque de s’enliser au moment même où ses concurrents se rassemblent, à l’image du rapprochement des systèmes de messagerie de Microsoft et Yahoo.
Matériel
Réduire
EN ATTENDANT CMT
Sun assure la transition
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Alors qu’il connaît un regain de dynamisme sur le marché, le constructeur Sun en profite pour redessiner ses lignes de serveurs en s’appuyant sur un fort partenariat avec Fujitsu-Siemens. Dans quelques semaines, cette vague de renouvellement touchera aussi les serveurs x86. De quoi nous faire patienter avant que les serveurs avec l’architecture CMT du constructeur américain ne deviennent omniprésents.

M40001600120013392_Copier5.gifLe M4000, serveur de milieu de gamme,délivre déjà des performances intéressantes pour des applications critiques.
Sun va mieux et les gains de part de marché (PdM) et la croissance des revenus sur l’année écoulée le prouvent : + 1, 5 % de gain de PdM et 24,4 % de croissance des revenus. C’est principalement le segment haut de gamme du marché qui profite de cette embellie avec une évolution des besoins des clients de ce type. L’évolution suit trois axes précis : la mise en conformité à certaines lois, ou règles, comme Bales ou Sarbanes-Oaxley, des demandes plus fortes sur des mises en œuvre d’ERP et d’infocentre de grande taille et une volonté appuyée de consolidation physique des machines au moyen d’outils de virtualisation. Dans ce contexte, Sun tire son épingle du jeu et déploie une stratégie agressive avec de nouveaux serveurs issus de son partenariat avec Fujitsu : la gamme SPARC Entreprise. Jean-Yves Pronier précise : « Cette gamme est une arme dirigée contre la concurrence qui va nous permettre de gagner des parts de marché. »


Des serveurs à la mode « Mainframe »

Les nouveaux serveurs proposés font le choix de la performance et forment une gamme complète.

• Celle-ci reprend l’entrée de gamme des serveurs APL sur CMT, les T 1000 et 2000, des monoprocesseurs qui embarquent le processeur Niagara.
• Dans le milieu de gamme, les machines fonctionnant sur Sparc VI en 64 bits prennent le relais et se déclinent désormais en M-Series, avec des versions 4 et 8 processeurs.
• Au-dessus encore, la gamme se décline en 16 et 32 processeurs avec les M8000 et M9000.

L’architecture est commune sur toutes les machines et reprend les fonctionnalités de partitionnement du constructeur, de haute disponibilité, la compatibilité binaire de Solaris 10 et le jeu d’instructions de Sparc v9. Les serveurs tirent aussi parti du passé mainframe du partenaire japonais de Sun.

La compatibilité binaire est un élément important, car elle va permettre aux clients actuels des serveurs SunFire de Sun ou PrimePower de Fujitsu de migrer vers les nouvelles machines sans trop se poser de questions sur leurs applications en production. Pourquoi migrer ? Tout simplement parce que, par rapport à SunFire, la performance est supérieure de 50 % et la bande passante est multipliée par 10, mais avec une consommation électrique équivalente. L’écart serait de 30 à 35 % par rapport aux serveurs concurrents chez IBM (Serie p) et HP (superdome).


Un partenariat de 20 ans
La nouvelle gamme Sparc Entreprise est l’aboutissement de 20 ans de partenariat. Ces liens se concrétisent par la distribution et la fabrication partielle de la technologie Sparc par Fujitsu. Sun reste propriétaire de l’architecture. Les travaux en commun sur la nouvelle gamme de serveurs ont démarré en 2003 après la signature d’un nouvel accord présidant à la naissance de la gamme de serveurs APL présentés maintenant. Les serveurs seront commercialisés sous la marque Sparc Entreprise par Sun, par Fujitsu en Asie et Fujitsu-Siemens Computer en Europe.




M8000-open1600120013400_Co6.gifRecord mondial au benchmark SAP pour ce M8000 de Sun.
La performance n’est pas le seul argument que Sun peut faire valoir. Les machines haut de gamme proposées embarquent des fonctions assez uniques, comme des mécanismes de protection de la mémoire avec une option de mirroring de celle-ci, le diagnostic  en avance de phase de Solaris, l’intervention à chaud sur tous les composants et la redondance complète des composants, dont une double source d’alimentation en option, la possibilité de mixer les processeurs et les fréquences sur un même serveur… Le matériel supporte de plus la reprise sur instructions et l’auto-réparation. Rien de vraiment nouveau pour ceux qui sont habitués à travailler sur des mainframes, mais des fonctions intéressantes sur des serveurs Unix.
Au bilan, un record mondial en benchmark sur l’ERP SAP 2005, sur une base Oracle 10g avec une configuration musclée de 16 processeurs (32 cœurs, 64 threads) SparcVI à 2,4 GHz sur Solaris 10, avec 256 Go de mémoire centrale et des caches de 256 ko en niveau 1 et de 6 Mo en niveau 2 pour traiter des transactions de 7 300 utilisateurs simultanés avec des temps de réponses moyens de 18 ms en dialogue et 41 ms en upload.


Un spécialiste de la consolidation et de la virtualisation

La gamme M bénéficie des fonctionnalités avancées que procurent Solaris 10 (lire notre article dans le numéro 46 de l’Informaticien) et le partitionnement physique du constructeur. Ainsi, il est possible  de réaliser des partitions hardwares isolées avec des domaines dynamiques.
Au niveau logique, il est possible de réaliser la même opération avec des machines virtuelles. Le support des containers Solaris et des domaines logiques LDOM offrent encore d’autres possibilités de virtualisation ou de consolidation.
Cette gamme semble pourtant être l’une des dernières avant la généralisation des serveurs sous architectures CMT, même si une évolution du processeur est annoncée dans 18 mois avec le nom de code « Jupiter », rien de moins, qui devrait représenter la 7e génération des processeurs Sparc. D’ailleurs, chez Sun, on ne s’en cache pas : « Il s’agit d’assurer la continuité sur un marché qui n’est pas de volume, et où les projets de grands serveurs se mesurent dans le temps, de 5 à 7 ans, mais en touchant le moins possible aux applications tout en assurant un plan de continuité avec le moins de ruptures possibles », conclut Jean-Yves Pronier.

Le renouvellement des gammes devraient rapidement continuer chez Sun avec l’annonce prochaine des nouvelles machines x86, les premières sur les processeurs Intel !


Sur un air de « Rock »
rock13396_Copier7.gifUne vue du petit dernier de chez Sun. Difficile de se dire que là-dessous se cache un véritable monstre de performance !
Ce n’est rien moins que sur le blog personnel de Jonathan Schwartz, le patron de Sun, qu’a été présenté le prototype du prochain processeur de Sun qui sera disponible dans le courant de l’année prochaine. Gravé en 65 nm, il sera doté de 16 cœurs. Ces cœurs devraient être optimisés pour fournir des performances par threads plus élevés avec le calcul en virgules flottantes. Pour le nombre de threads par cœur, le secret est bien gardé et rien ne filtre. Le processeur se caractérise par le support d’une mémoire adressable gigantesque : 256 To ! (vous avez bien lu…) Le système vise a priori les environnements demandant de nombreuses transactions comme les grosses bases de données. Le processeur embarquera le jeu d’instructions Sparc 64 bits et reposera sur une mouture logicielle provenant de Sun Open Solaris et sur une architecture CMT (Chip Multi-Threading), le bébé maison, utilisant une architecture de traitement parallèle des tâches. En faisant un petit retour historique, la naissance de « Rock » ne semblait pas se présenter sous les meilleurs auspices. En 2003, à la surprise générale, Sun annonçait un arrêt brutal du développement de l’Ultra Sparc 5 et l’abandon du projet Gemini, le successeur dual-core de l’ultraSparc 3. Aujourd’hui, on explique chez Sun ce choix par la décision stratégique de recentrer la R&D sur le développement de « Rock ». Ce choix a permis de recaler ce projet avec 2 ans d’avance.



Vocal
Réduire
La parole comme interface
Par Emilien Ercolani - Copyright L'Informaticien, tous droits réservés

Imposer la voix comme outil de travail ultime. La finalité ? Travailler plus librement, plus efficacement. La parole est déjà mise à l’honneur dans certains logiciels méconnus, quoique désormais assez efficaces. On en parle depuis au moins quinze ans. L’ordinateur qui parle et qui peut être piloté à la voix deviendrait-il une réalité ? Il prend corps aujourd’hui avec l’intégration de la reconnaissance vocale en accessoire de Windows Vista ou dans les dernières versions du navigateur Opera. Le point sur les quatre registres de la voix sur ordinateur.

L’ère du clavier et de la souris serait-elle en passe d’être définitivement révolue ? Pas tout à fait. En effet, même si de nombreux logiciels destinés à être utilisés avec la voix débarquent sur le marché, la technologie n’a pas atteint son niveau optimal. Elle mérite pourtant qu’on lui prête une attention toute particulière puisqu’elle risque d’entrer concrètement dans nos vies d’ici quelques années. Découvrir le PC vocal, c’est se familiariser avec quatre grandes familles d’applications.


1 - ÉCRIRE PLUS VITE

Première application vocale : la dictée. Mais faire adopter par chacun ces nouveaux outils vocaux en entreprise passe souvent par la rapidité et l’efficacité de ceux-ci. Lorsque toutes ces contraintes sont réunies, le logiciel doué de reconnaissance vocale tend à s’imposer de manière linéaire pour apporter une véritable aide au développement et à la productivité du travail. De nos jours, ce type de logiciel devient de plus en plus fiable grâce à la puissance accrue des machines portables ou de bureau. Seule difficulté, la langue de Molière donne parfois bien du fil à retordre aux développeurs pour intégrer sa complexité à des logiciels de reconnaissance vocale. Aujourd’hui, les éditeurs tablent quand même sur des taux de bon fonctionnement de l’ordre de 90 %.

Dans ce domaine, les éditeurs sont de plus en plus nombreux à tenter d’apprivoiser la langue parlée, sur le même principe : capturer la parole par le biais d’un périphérique d’enregistrement pour finalement la convertir en signaux numériques. Ces derniers sont ensuite récupérés pour générer des résultats stockés dans une base de données, en utilisant un algorithme de calcul de probabilité qui trouve les mots les plus utilisés.

Dictée en langue naturelle…

viavoice10045_Copier5.gifAujourd’hui, les éditeurs cherchent donc à séduire un public plus large, en proposant des solutions au prix raisonnable, tout à fait complètes et opérationnelles, capables de gérer certaines applications en langage naturel pour éviter de nous faire « parler comme un robot ».

Dans ce domaine, IBM, avec son logiciel ViaVoice, et Dragon Systems, avec son outil NaturallySpeaking, se taillent la part du lion. Les deux solutions proposent en effet de créer et d’éditer des documents, des feuilles de calcul et des courriers électroniques au simple son de la voix, dans presque tous les environnements Windows (Word, Excel, Internet Explorer…). De son côté, le logiciel d’IBM embarque un dictionnaire riche de plus de 265 000 termes, alors que NaturallySpeaking en compte environ 35 000 de plus. Ainsi, ces deux logiciels tirent parfaitement leur épingle du jeu, se positionnant comme les deux meilleurs outils du marché.


2 - ÉCOUTER SON ORDINATEUR

Quand les textes sont longs à lire, fatigants pour les yeux et la tête, la solution peut être simple : transformer les textes en tous genres en fichiers audio. Ainsi, plus besoin de s’ennuyer avec de fastidieuses lectures ou relectures pour vérifier qu’aucune erreur de transcription ne s’est glissée dans un tableau. Pour cela, une technique s’applique à tous types de documents : mails, articles en ligne, tableaux / tableurs ou mêmes livres électroniques ; tout ce qu’il faut c’est un logiciel spécialisé qui se charge de lire pour vous et de convertir en fichier audio – de préférence en mp3, moins lourd que le classique format Wav.
Dans ce domaine, deux logiciels ont fait leurs preuves, et ont démontré de bonnes aptitudes à la lecture de texte : Virtual Speaker d’Acapela Group (basée sur les travaux universitaires de l’école polytechnique de Mons, en Belgique, et de KTH à Stockholm), et SpeakBack, d’Elan.

Né d’une volonté, somme toute assez naturelle, de reproduire la voix par informatique, ce type de logiciel a été créé dans les années 70 dans un premier but utile : rendre accessible le monde informatique aux personnes à la vue déficiente, ou atteintes de toute autre forme de handicap dressant une barrière à l’usage de l’outil. Nommés la plupart du temps TTS – Text To Speech – ces outils sont accompagnés par des voix, certes encore artificielles et neutres, mais faciles à comprendre.


Des sites Internet qui vous parlent


De plus, les applications sont variées, et entrent en compte dans nombre de domaines, à l’instar de l’automobile (avec la navigation GPS, la direction des panneaux…), mais aussi l’industrie multimédia, électronique, l’exploitation d’un résultat de synthèse… Un logiciel comme VirtualSpeaker embarque lui des kits de développement, destinés à intégrer la synthèse sur un serveur vocal pour les applications téléphoniques, ou Serveur Vocal Interactif (SVI). Cette solution propose également d’ajouter des API standard directement dans des sites Web (comme www.readspeaker.com par exemple, qui intègre cette solution), pour permettre la lecture d’un site en entier via cette application.
La méthode utilisée pour ce type de logiciel est simple et se déroule en trois étapes : enregistrer la voix avec un script bien établi pour avoir une couverture phonétique maximale, appliquer les règles grammaticales, et enfin acquérir les commandes vocales et les analyser. À noter que ces logiciels savent déjouer les pièges de la grammaire française comme les homographes (de même orthographe, mais de sens et prononciation différents), mais peuvent également lire les abréviations explicitement par exemple, quand elles sont rentrées dans le dictionnaire du programme.



La technologie au service de l’homme
L’informatique est un excellent moyen de s’ouvrir au monde pour une personne handicapée, et faciliter l’accès aux NTIC (Nouvelles Technologies de l’Information et de la Communication). Au-delà de la simple volonté de reproduire la parole dans un univers informatique, la technologie sert également à insérer dans ces environnements les personnes bloquées par des barrières physiques. Les nouvelles solutions de commandes orales ouvrent ainsi l’univers informatique aux personnes déficientes visuellement, mais pas uniquement. Le panel de personnes auxquelles les portes des nouvelles technologies sont dorénavant ouvertes ne cesse de s’agrandir : ainsi, l’accessibilité à l’écrit devient une réalité pour les personnes malvoyantes, mais également aux illettrés, analphabètes, étrangers, et à quiconque est victime de troubles de la parole.




3 - DIRIGER SON ORDINATEUR À LA VOIX

Avec l’arrivée de nombre de logiciels dédiés à l’amélioration de la « relation » avec l’ordinateur, il fallait que l’on en arrive au contrôle total de l’ordinateur par la voix. Certes, nous n’en sommes pas encore à cette démocratisation complète du phénomène, mais la fin de la souris et du clavier bruyant se rapproche à petits pas…  
L’un des pionniers en la matière est certainement Apple, qui a intégré les solutions Speech et VoiceOver, deux applications intégrées directement dans Mac OS X, destinées à vous faire prendre le contrôle oral de la machine. VoiceOver livre un grand nombre des fonctions disponibles dans des applications répandues de lecture d’écran, installables en complément, avec une collaboration essentielle avec les autres applications puisque les outils de la marque à la pomme sont intégrés au cœur du système.


Vista intègre d’emblée les commandes vocales

C’est également le choix qu’a fait Microsoft en intégrant à Windows Vista un outil de contrôle à la voix de l’interface bureau, en plusieurs langues – anglais, français, chinois traditionnel et simplifié, japonais, allemand et espagnol. Assez facile à maîtriser et à utiliser, cette fonction nécessite, au commencement, quelques réglages précis, pour au final réduire l’utilisation de la souris et du clavier tout en conservant ou en augmentant un niveau de productivité global. Ainsi, dicter des documents et des messages électroniques, remplir des formulaires sur le Web et contrôler des applications ainsi que le système d’exploitation en disant à haute voix ce qui est affiché devient possible. Un guide permet d’être aidé depuis le début, via un processus de configuration simple et une application pédagogique qui permet de se familiariser avec les commandes vocales. Que ce soit pour le démarrage d’une application, la sélection d’un mot ou la correction d’une phrase, l’utilisateur reste aux commandes. Même si ces applications peuvent paraître un peu « gadget », elles sont pourtant plaisantes et plutôt pratiques une fois que l’outil est maîtrisé, même en ce qui concerne la navigation Internet.

vista110047_Copier6.gif

En effet, Microsoft a également intégré à son outil de reconnaissance vocale une spécificité pour naviguer sur la toile simplement avec la voix. Ainsi, sur le même modèle de fonctionnement, Internet Explorer est entièrement pilotable avec la parole, ajoute des possibilités de navigation simple, même si les commandes sont parfois un peu lourdes à mémoriser. Si l’intégration dans Windows Vista n’est pas la première expérimentation de ce type de procédé dans un environnement informatique, on ne peut pas pour autant dire que le procédé est totalement au  point. À savoir qu’un bon équipement (casque, microphone…) est déjà essentiel pour obtenir des résultats corrects.


Opera vous comprend

Sur ce secteur, le navigateur Opera a également fait un grand pas en intégrant la technologie multicanal d’IBM et propose, depuis quelques temps déjà, le pilotage du navigateur à la voix. De plus, le système est prévu pour gérer la combinaison de plusieurs canaux entrants (clavier, voix, écran tactile) au sein d’une même session ouverte d’un internaute. Pour réussir à gérer les réactions des navigateurs, et réaliser l’interaction homme/machine, le système combine deux vocabulaires XML : le VoiceXML et le XHTML. Grâce à ces applications, le navigateur Opera est en mesure de combler toutes vos attentes. Seule difficulté, les commandes vocales ne sont disponibles que dans la langue de Shakespeare.
Communiquer avec son ordinateur, c’est également la possibilité d’entrer en contact avec les autres. Outre les traditionnels logiciels de messagerie instantanée (type MSN Messenger, Google Talk…), qui, somme toute, s’apparentent fortement à de la Conférence Web, les solutions de communication capables de partager et de modifier en temps réel des documents via la toile ont explosé ces dernières années.

Dans une tendance générale où la rapidité des échanges devient un avantage certain, voir concurrentiel, les entreprises se tournent progressivement vers des outils leur permettant d’accélérer les processus de décision, de réduire les délais pour la création et la mise en place des produits sur le marché. Le créneau, apparemment très porteur, accueille désormais plusieurs solutions qui ont déjà fait leurs preuves, de Skype jusqu’à Genesys Event, en passant par Lotus SameTime de IBM. En d’autres termes, ces solutions sont résolument destinées à l’échange de fichiers, à la manipulation, à la réécriture en temps réel, ainsi qu’à la visio-conférence. C’est la fin des envois de fichiers par mail, où chacun des interlocuteurs est obligé de corriger, puis de ré-envoyer ses modifications à l’autre. Idem pour les contacts impersonnels avec les relations de travail ; Skype par exemple, vous propose de tisser des liens directs en voyant le ou les protagoniste(s) en question. Bienvenue dans l’ère de la réunion interactive !


4 - APPRENDRE DES LANGUES

TellMeMore113892_Copier7.gifComme l’école républicaine n’est plus le seul endroit où il est possible d’apprendre et de dévorer du savoir, l’informatique a vite saisi le créneau de l’apprentissage. L’éditeur de solutions de formations aux langues étrangères Auralog domine le secteur avec la suite de logiciels « Tell Me More » : il propose de nombreux moyens éducatifs, notamment le jeu de rôle, qui permet d’aborder le langage parlé de manière ludique et éducative, avec plus de 250 heures d’apprentissage (par vidéo ou autre) par niveaux et 40 types d’activités différents, tout en utilisant la reconnaissance vocale. Divisé en trois modes de travail – libre, guidé ou dynamique –, le logiciel autorise une grande personnalisation du programme d’apprentissage.
À la base conçue pour un environnement Windows, la suite de logiciels est accessible sous Mac OS X depuis le début 2006. Tous les CD et DVD de la collection fonctionnent indifféremment dans les deux environnements.


Une version online


Parallèlement à ses activités dites « classiques », Auralog a même sorti une version de Tell Me More, 100 % online pour les particuliers (www.tellmemore-online.com), basée sur les éléments de la version sur support physique, une des seules à proposer la reconnaissance vocale en ligne. Ainsi, cette solution laisse le choix aux utilisateurs, en termes d’offres et d’accompagnement, via un test de positionnement pour déterminer le niveau de la langue souhaité, et en fonction des objectifs qu’il souhaite atteindre. Avec Tell Me More Premium, vous avez le premier rôle. Cette activité propose aux « apprenants » de doubler les acteurs de courts-métrages ou de vraies séries télévisées. Une application sympathique qui intègre vraiment l’utilisateur dans son rôle d’étudiant, tout en restant plaisante !
En somme, toutes ces innovations technologiques n’ont qu’un seul et même but : faciliter la vie. Celle du consommateur, mais aussi celle de l’utilisateur ayant des difficultés « physiques », car si leur but ultime est simple, il a pour mérite d’améliorer la vie de bon nombre de nos concitoyens. Et pourtant, le « PC à la voix » n’en est qu’à ses débuts, conforté par des prémices déjà surprenantes car résolument novatrices. Mais connaissant les habitudes des développeurs informatiques, on peut s’attendre à bien d’autres inventions spectaculaires prêtes à révolutionner les modes de fonctionnement au bureau et à la maison, les comportements face à un ordinateur, pour les pros comme pour les novices. Des nouveautés qui, au fur et à mesure de leur arrivée sur le marché, étonnent par leur originalité et leur intérêt certain. Ainsi, pouvons-nous déjà imaginer des améliorations futures, comme le contrôle d’un ordinateur par la pensée par exemple. Une utopie aujourd’hui, peut-être une réalité quotidienne demain… ?


La voix et le travail en binôme
DictaLink-V3-SR---Aute13918.gifCertains logiciels de dictée numérique sont de réelles solutions efficaces pour le travail en binôme avec un secrétariat pour la création et la transcription de fichiers son dans l’entreprise, à l’instar de la solution DictaLink (V3 & V3SR), éditée par MySoft. Ainsi, ce type de logiciel propose un espace de travail collaboratif, en définissant des communautés restreintes. L’auteur dispose lui d’un espace « enregistreur logiciel », qui recèle de nombreuses fonctions de paramétrages et options pour, par exemple, le repérage par segments des différentes phases de la dictée ou l’insertion d’instructions écrites ou vocales et de pièces jointes. De plus, l’association d’un module auteur et d’un traitement de texte, si elle est couplée au logiciel de dictée vocale (notamment Dragon NaturallySpeaking de Nuance Communications), permet de créer « à la voix » des documents texte avec un fichier son synchronisé. Dans les deux cas, l’envoi des fichiers, « son » ou « texte + son » se fait de manière instantanée jusqu’au secrétariat. Les assistantes, quant à elles, peuvent organiser leur travail via un navigateur dédié qui leur permet de classer les différents fichiers à transcrire en fonction de leur origine et de leur priorité et, pour éviter toute duplication, de s’approprier les fichiers les concernant.


Linux Journal
Réduire
Découvrez la suite collaborative Open Source Zimbra
Par Marcel Gagné – Traduction : Noé Barat

Zimbra est un groupware Open Source de très bonne facture. Faisant appel à Ajax, il permet de stocker, d’organiser, et de partager, rendez-vous, contacts, e-mails, liens,  documents, et plus si affinités…


Le courrier électronique est l’épine dorsale de la communication en entreprise. Mais cette voie de communication entre réseaux d’entreprises a aussi montré pas mal de limites. Pour améliorer ce concept, les concepteurs de logiciels l’ont enrichi de nouvelles fonctions, telles que le classement des courriers, la création de listes d’expédition, la gestion de carnets d’adresses, créant au final ce qui a été désigné populairement sous le nom de système de gestion de contenu (NDT : en anglais CMS ou « content management system »).

Le grand événement pour la gestion des contacts en entreprise a été la création du logiciel dit de « groupware », qui fédère les outils de collaboration, permettant à plusieurs membres d’une même organisation de partager les mêmes calendriers et listes de contact.

Cependant, l’administration de milliers d’ordinateurs de bureau, bureau sur lequel il est nécessaire d’installer l’ensemble des logiciels, engendre aussi son lot de problèmes. Pendant que de tels systèmes – de plus en plus complexes – se développaient, les utilisateurs ont noté qu’ils se noyaient dans une mer de mots, essayant toujours d’atteindre l’information dont ils ont besoin et qui les aideraient à rester à flot.

La raison d’être de Zimbra est d’améliorer la gestion des courriers électroniques en fournissant une suite qui simplifie la manière dont les utilisateurs peuvent classer, utiliser et retrouver une information.

La suite collaborative Zimbra est une application puissante et évolutive, adaptée aux moyens d’une petite ou d’une très grande entreprise. Zimbra peut être déployé dans un contexte de haute disponibilité, et de clusters où il pourra servir de très nombreux clients. Par exemple, Zimbra gère en interne pas moins de 100 000 utilisateurs, alors que l’université de Toronto en gère des dizaines de milliers. Les clients de Zimbra sont divers (par exemple Mozilla et Digg.com), allant des fournisseurs d’accès et de contenu qui offrent Zimbra comme service aux entreprises, aux universités, en passant par des bureaux gouvernementaux ou des organisations diverses.


Que fait Zimbra ?

Zimbra est un groupware, servit par une interface Web, dont l’e-mail est le noyau, et qui permet à ses utilisateurs de stocker, d’organiser et de partager des rendez-vous, des contacts, des e-mail, des liens et des documents. Zimbra est une solution cliente et une application intégrée puissante serveur qui inclut PostFix, l’annuaire LDAP, et le serveur httpd Apache. Zimbra inclut quelques extensions « intelligentes » (baptisées zimlets que nous examinerons plus loin), et autres mashups d’entreprise qui permettent à des utilisateurs d’agir l’un sur l’autre naturellement avec l’information incluse dans leurs messages e-mail.

Il est impossible de parler d’un produit comme Zimbra sans tenter de le comparer à Exchange de Microsoft. Zimbra est en effet une solution possible de remplacement pour Exchange. Zimbra offre des outils de migration qui simplifient la migration d’Exchange vers Zimbra (des outils de migration pour Lotus Notes sont également disponibles). Les clients Outlook sont pleinement supportés, et ceci signifie que cela fonctionne avec les e-mails d’Outlook, mais aussi avec les contacts et les fonctions de calendrier (la synchro MAPI cependant est disponible seulement avec l’édition réseau commerciale  de Zimbra). Si vous êtes fanatique d’un autre client de courrier, tel que Thunderbird ou Eudora, vous pouvez continuer de l’employer. Cela dit, une fois que vous commencerez à travailler avec le navigateur client basé Ajax de Zimbra, vous pourrez dire adieu à votre vieux logiciel client. Notez également que Zimbra supporte un certain nombre de dispositifs mobiles, tels que PocketPC et Windows Mobile (PDA et SmartPhones), Palm, Symbian pour les téléphones mobiles, iSync (MacOS), et Blackberry.


Travaillons avec Zimbra

Zimbra est une application Web, mais vous ne le ressentez pas lorsque vous travaillez au quotidien. Ceci est dû au fait que l’application utilise intensivement Ajax avec la possibilité de recourir à de nombreux raccourcis claviers. Laissez-moi illustrer mon propos par un exemple. Avec la plupart des applications de courrier Web, vous supprimeriez un message (ou une série de messages) en choisissant chaque message puis en cliquant dans une boîte de contrôle près du message, puis, étape suivante, en sélectionnant le bouton d’effacement, et enfin en cliquant pour commander l’effacement. Zimbra fonctionne d’une manière similaire à votre application cliente de bureau. Vous choisissez un groupe de messages (via un clic, un shift clic – sélection de multiples messages – ou CTRL-clic), puis vous appuyez sur la touche d’effacement (delete).

Autre exemple : avec une application banale de courrier Web, vous sélectionnez des messages dans un dossier en les choisissant par l’intermédiaire d’une boîte de contrôle, et en cliquant sur « déplacer » pour les déplacer vers une autre destination. Les utilisateurs de Zimbra choisissent leurs messages et les glissent dans le dossier désiré de manière intuitive, exactement comme vous le feriez à partir de votre ordinateur de bureau.

Pour ouvrir un dossier, vous double-cliquez sur celui-ci. Pour lire un message, vous double-cliquez sur le message. En fait, tout cela est si normal qu’après un moment, vous oubliez que vous travaillez avec une application Web. Cette normalité, ou du moins cette impression familière, est la même avec toutes les applications de Zimbra. Dans la vue calendrier, si vous désirez créer un rendez-vous, il vous suffira de glisser votre souris sur la tranche de temps désirée, puis de cliquer : Zimbra affichera alors une boîte de dialogue pour que vous puissiez compléter votre rendez-vous.

Note : l’interface Ajax de Zimbra est compatible avec de nombreux navigateurs, y compris Firefox 1.0+, Netscape 7.1+, Internet Explorer 6.0+, Mozilla 1.4+ et Safari 1.3+ – bien qu’actuellement en bêta. Quand j’ai essayé d’employer Zimbra avec le navigateur Opéra ainsi que Konqueror, j’ai été stoppé dans mon élan par un message d’erreur énumérant les navigateurs compatibles. Avec des navigateurs tels que Konqueror, il est possible de changer d’identification et donc de masquer sa véritable identité. Après avoir pratiqué ainsi, Zimbra m’a permis de continuer, mais j’ai été confronté à des problèmes. Apparemment, c’est pour cela qu’il n’est pas supporté. Pour ces navigateurs non supportés, Zimbra offre une interface de base, avec un lien vers cette interface simplifiée indiquée sur la page d’erreur.
En travaillant avec un groupware, il est commun de vérifier vos e-mails, puis de basculer sur la vue calendrier pour confirmer un rendez-vous, pour basculer à nouveau vers vos e-mails. Zimbra peut identifier des chaînes de caractères à l’intérieur de vos messages e-mail, tels qu’un numéro de  téléphone ou une date. L'illustration page précédente affiche un message dans lequel l’expéditeur me demande si je suis libre à une certaine date. Zimbra identifie que c’est une date et m’informe de ma disponibilité pour cette fenêtre précise de temps.

Si la plage de temps est libre, il n’y a aucun besoin de basculer vers la vue calendrier : il vous suffit de cliquer sur le bouton droit de la souris, la date étant déjà sélectionnée, et de choisir « nouveau rendez-vous », puis de décrire les détails. Cette manière de pratiquer est merveilleusement simple et intuitive.

Mais il y a mieux. Zimbra peut également identifier des informations contextuelles, comme le mot « demain », ou même des mots multiples, tels que « mercredi prochain ». Le programme examine alors votre calendrier pour vous aider à planifier votre emploi du temps.

Zimbra sait aussi interpréter des adresses et des numéros de téléphone. Dans le cas d’un numéro de téléphone, Zimbra offre même la possibilité d’exécuter un logiciel de téléphonie IP, tels que Skype ou Ekiga. Si vous survolez une adresse e-mail, Zimbra recherche ce contact dans votre carnet d’adresses et fera apparaître automatiquement une fenêtre flottante avec l’information de ce contact. Vous n’avez pas besoin de basculer vers votre carnet d’adresses pour connaître le profil de votre client.

L’expérience utilisateur est enrichie avec des outils intégrés d’antispam et d’antivirus, ainsi que les dossiers intelligents et les abonnements RSS et, naturellement, les zimlets.
 

Les zimlets ?

Lorsque vous passez en revue un courrier et qu’instantanément votre planning pour une plage de temps déterminée s’affiche, vous voyez à l’œuvre un zimlet. Un zimlet peut lancer Skype quand vous passez en revue un courrier contenant un numéro de téléphone. Quelques zimlets importants sont inclus dans une installation de Zimbra par défaut, mais il y en a plusieurs dont vous ne pourriez pas immédiatement vous rendre compte, allant de l’extrêmement utile aux distractions complètement futiles, mais amusantes. Quand vous installez ces zimlets supplémentaires, ils apparaissent dans votre barre latérale droite, au-dessus de votre mini-calendrier. Certains des zimlets supplémentaires valent la peine d’être connus. En plus de l’outil appelant un logiciel de téléphonie IP (qui emploie Skype par défaut), il existe également un zimlet qui tire profit d’un système de VoIP installé.

Si vous utilisez le zimlet Yahoo maps, vous pourrez identifier des adresses incluses dans votre texte et afficher en un clin-d’œil le plan d’une ville. Cette fonction n’a pas tenu compte d’office de toutes les adresses examinées, mais vous pouvez écrire l’adresse manuellement en cliquant sur le zimlet. Il existe aussi un zimlet pour Wikipedia, et un zimlet de traduction basé sur le service de traduction de Google. Il suffit de glisser un message sur le zimlet de traduction de Google, tout en choisissant une langue et enfin de cliquer sur OK.

Autant l’admettre tout de suite, le zimlet avec lequel j’ai perdu le plus de temps est le zimlet des jeux d’arcades. Plusieurs jeux électroniques classiques sont inclus pour vous distraire si nécessaire. Après tout, ne faire que travailler sans jamais se distraire ne se traduira pas nécessairement par une productivité accrue… Passez quelques minutes, pour souffler, avec des astéroïdes, ou en jouant plus simplement à Pacman (voir l’illustration ci-dessus).

Il existe également des zimlets qui vous renseigneront sur le trafic routier (pour que vos employés voient s’il est temps ou non de rentrer à la maison, ou quels sont les itinéraires à éviter), et des zimlets qui permettent d’acheter sur Amazon.com, ou de dépister les heures de vols vers une destination, ou encore pour envoyer un message SMS, etc.

Les Zimlets peuvent s’installer manuellement (par l’intermédiaire de la ligne de commande) ou via l’interface administrative graphique de Zimbra – que je vous recommande. L’interface administrative est conçue comme une interface utilisateur mais permet d’accéder à différentes fonctions. Celles-ci incluent des statistiques sur l’utilisation du serveur, la gestion des utilisateurs, l’emplacement et la configuration du nom de domaine, etc.

Vous pouvez aussi y configurer certains dispositifs relatifs à la sécurité : par exemple, vous pouvez vouloir bloquer des fichiers attachés contenant certaines extensions, comme les .BAT, .EXE, .VBS, et ainsi de suite (voir l’illustration ci-contre).

L’interface administrative liste également des liens vers le téléchargement d’outils de migration pour un serveur Exchange et pour un serveur Lotus Domino.


Et les points négatifs ?

Le support des navigateurs pourrait être meilleur, mais il couvre la majorité d’entre eux et certainement les plus populaires. Je voudrais personnellement voir Konqueror dans cette liste aussi bien qu’Opéra. Certains des zimlets n’ont pas toujours fait ce qu’ils étaient supposés faire. Mais même dans ce cas, il est toujours possible de double-cliquer sur le zimlet, et d’entrer des données manuellement.

Le plus grand point noir, à mon avis, a été d’installer Zimbra en premier lieu. Nous avons dû employer la ligne de commande, ce que nous trouvons d’un autre temps. Sans compter la partie configuration en mode texte. Le recours à une interface Web de configuration aurait été une bonne idée.

Nous avons dû subir quelques déboires durant l’installation, mais lorsque finalement nous avons obtenu Zimbra installé, c’était une si grande expérience que nous avons presque oubliée les maux de tête provoqués par son installation.
 

Licences et coûts

Zimbra est un logiciel libre et Open Source publié sous licence libre, mais certaines extensions sont commerciales. L’édition « réseau » offre un support commercial total, plus des logiciels additionnels d’une grande valeur ajoutée. Par exemple, le support en clusters, y compris des dispositifs avancés de sauvegardes et de reprise, et une fonction puissante de recherche sur fichiers attachés qui ne font pas partie de l’édition libre.

Si vous avez besoin des connecteurs Outlook (Microsoft) et d’iSync (Apple), vous aurez aussi besoin de l’édition commerciale. Idem pour la synchronisation d’appareils mobiles (téléphones portables Symbian, Treo, et du Blackberry).
La suite collaborative Zimbra est disponible pour une grande variété de distributions, mais si les paquets pour votre distribution particulière ne sont pas disponibles, Zimbra fournit le code source.


La version commerciale réseau et la version libre

L’édition commerciale et la version libre sont développées conjointement. Nous vous recommandons de télécharger l’édition commerciale en premier lieu. En effet, une période d’essai de 60 jours est incluse, mais si vous ne voulez pas, en définitive, de la version commerciale, votre suite collaborative repassera automatiquement à l’édition ouverte, et vous n’aurez rien perdu.

Les prix de l’édition commerciale sont raisonnables, commençant à partir de 25 dollars par utilisateur, et par an. Des tarifs spéciaux sont accordés pour les établissements éducatifs, les gouvernements et les associations à but non lucratifs.

Conclusion

La suite collaborative Zimbra est un produit fantastique et de bonne facture à prendre d’urgence en considération. Travailler avec l’interface cliente Ajax, de Zimbra, est un vrai plaisir, et même l’édition libre Open-Source est riche en fonctionnalités. Certains des zimlets, bien que parfois imparfaits, fournissent une expérience sans équivalent aux utilisateurs. Il est vrai que l’installation, d’une part, pourrait être beaucoup plus conviviale, et je voudrais voir plus de distributions supportées dans l’édition commerciale, mais ces questions d’installation n’affectent en rien l’expérience d’utilisateur.

Si vous n’avez pas besoin des dispositifs fournis avec l’édition commerciale, le prix de Zimbra est certainement une bonne affaire, offrant beaucoup de fonctionnalité sans le moindre coût. Si vous voulez tirer profit de Zimbra, mais sans faire les frais d’un hébergement serveur, Zimbra fournit une liste d’associés potentiels (www.zimbra.com/ partners/zimbra_hosting.html).


La page d’accueil de Zimbra est www.zimbra.com.

Marcel Gagné est un rédacteur bien connu, habitant Waterloo, en Ontario. Il est l’auteur de « Moving to Free Software », son sixième livre chez l’éditeur Addison-Wesley. Il passe également régulièrement à la télévision en tant qu’expert Linux.

Sans fil
Réduire
Entreprises, passez au sans fil !
Par Olivier Pavie - Copyright L'Informaticien, tous droits réservés

fig03ipaq500series.jpg

Le smartphone est le meilleur allié de la convergence réseau et téléphonie sans fil : ici, un iPaq 514 de HP.

Sans fil partout et pour tout ? C’est possible ! De la donnée à la voix, les technologies offrent un large panel de possibilités interopérables, désormais uniquement limitées par l’imagination et… le budget. Ce qui est rassurant, c’est qu’on en fait toujours plus pour de moins en moins cher. Tout n’est qu’analyse de besoins et mise en œuvre appropriée !

Du Wi-Fi au DECT en passant par les CPL, Bluetooth et autres WiMax, mais aussi par les réseaux des opérateurs mobiles, ou non, tout devient interopérable et optimisé pour l’usage que vous en attendez, sécurisé ou non. Alors, quel est le problème ? Aucun, ou presque… et si vous avez le budget vous aplanirez les dernières difficultés éventuelles.


L’architecture et l’infrastructure de votre réseau

Avant même de parler technologies et besoins, il est nécessaire de saisir toute la dimension du passage au sans fil. Sans-fil signifie à la fois « sans fil à la patte » et « sans ajouter de fils ». C’est dans ce contexte que les deux solutions appropriées au sans fil utilisent soit les ondes radio, soit le courant porteur en ligne ou CPL, également appelé Powerline. Dans les deux cas, les perturbations et typologies physiques d’implantation des relais et adaptateurs peuvent provoquer des problèmes. La seule problématique la plus souvent évoquée concerne  toutefois l’utilisation du Powerline en entreprise en raison de l’affectation « métier » de l’électricité. Il y a des solutions dérivées intermédiaires de plus en plus intéressantes à son exploitation (voir encadré) qui peuvent aller jusqu’à annihiler les arguments de ses détracteurs.


Quels besoins pour quoi faire ?

fig01OfficeBooster220.jpg

Bewan Office Booster 220 : Internet et téléphonie multiposte sans fil pour la petite entreprise.

En matière de sans fil hertzien, les deux principaux besoins concernent la téléphonie et, évidemment, l’accès au réseau de données via PDA, Smartphones, notebooks et autres équipements spécialisés. Les deux besoins peuvent être conjoints. Les nouveaux Smartphones le prouvent. Ils prennent désormais souvent en compte cette possibilité pour intégrer à la fois la téléphonie mobile classique, mais aussi la téléphonie mobile en réseau en plus de l’accès aux données. Nous y reviendrons.
En ce qui concerne le « sans-fil » par les câbles et finalement l’usage de réseaux câblés existants non dédiés à l’informatique, le CPL ou « courant porteur en ligne » propose de plus en plus d’alternatives aux déploiements mixtes devant s’assurer du maximum de disponibilité du réseau sur une couverture la plus large possible.

Comme le dit si bien Denis Weil, chez Olitec, fameux constructeur de modem reconverti en quelque sorte en un fournisseur de convergence réseau, « L’important est de se soucier du besoin du client et d’utiliser la solution qui lui sera la mieux adaptée .» Depuis peu, le CPL est même sorti du réseau électrique pour s’attaquer aux réseaux de câbles de télévision, de téléphonie, etc. Une alternative qui peut être intéressante à l’heure où certaines entreprises ne veulent surtout pas mêler leur personnel « électricien » à leur personnel « informatique ».

 
Téléphonie sans fil ?

fig05CPL200.jpg

Le CPL 200 d’Olitec, un simple boîtier qui s’adresse surtout aux PME/TPE.

En matière de téléphonie sans fil, plusieurs technologies sont actuellement concurrentes et/ou complémentaires. Le Wi-Fi est, de plusieurs manières possibles, complémentaire du GSM. Il peut être complété ou concurrencé par le Bluetooth pour certains usages, et par le DECT, ou Digital Enhanced Cordless Telecommunication, une norme numérique cryptée dédiée dès l’origine à la téléphonie sans fil à l’intérieur des bâtiments.

Les gros avantages du DECT sont l’excellente autonomie et toutes sortes de contrôles qui permettent d’assurer à la fois la qualité de service, mais aussi la communication entre postes, le transfert d’appel, etc. Le principal inconvénient du DECT était d’exiger des centraux téléphoniques dédiés et pas forcément interconnectables avec le réseau informatique.

Ces équipements existent désormais jusqu’à correspondre à l’attente de très petites sociétés, comme c’est par exemple le cas d’une petite boîte du constructeur français Bewan, l’Office Booster 220 : un modem/routeur ADSL/hub/Wi-Fi/DECT qui accepte de gérer une combinaison de lignes VoIP SIP et RTC classiques avec les fonctions d’un véritable standard téléphonique capable de gérer jusqu’à huit postes (4 DECT compatibles GAP, c’est-à-dire pouvant provenir de différentes marques, avec borne intégrée + 4 analogiques, pouvant eux-mêmes être connectés à leurs propres bornes DECT) avec affectation de numéros internes.


Mesh contre Wimax
Les réseaux Mesh – ou réseaux maillés – font beaucoup parler d’eux depuis environ deux ans. Que ce soit chez Tropos, Luceor ou chez d’autres, la technique consiste à exploiter la technologie Wi-Fi et à la faire travailler de manière à ce que les points d’accès sachent dialoguer entre eux pour que l’information des clients du réseau soit transportée le mieux possible de son origine à sa destination et vice-versa. Le principe de la technologie Mesh à proprement parler est alors de savoir automatiquement tirer profit de l’ajout d’un nouveau point d’accès dans le réseau pour améliorer la couverture et/ou le débit d’une zone géographique. Pour Fabrice Jonvel de Bluesafe, a priori, cette technologie de Wi-Fi Mesh pourrait être rapidement détrônée par WiMax, dont la portée exceptionnelle et l’excellent débit permet de pallier tous les défauts de topologie physique du Wi-Fi, tout en étant complémentaire et compatible avec le Wi-Fi standard.




Tout dans la poche ?

fig02cdevolodlanavarjpg.jpg
fig02devolodlanavarjpg.jpg

Le CPL au service du sans fil : la fiabilité du transfert sur un réseau filaire non dédié informatique peut se prolonger par du « total sans fil » Wi-Fi.

Concrètement, passer au sans fil, comment ? Si on pense globalité de l’accès aux données dans l’ensemble de l’entreprise en même temps que possibilité de joindre et d’être joint par téléphone par n’importe qui, où que l’on soit, par le numéro d’appel de téléphonie mobile, par un numéro interne ou un numéro fixe, le choix nécessite l’adoption de plusieurs standards de télécommunication, en plus d’un accès réseau particulièrement soigné.

Fabrice Jonvel, de Bluesafe, petite société de service en réseaux sans fil spécialisée Wi-Fi et WiMax, insiste sur le fait que l’installation d’un réseau Wi-Fi qui supporte une vraie téléphonie doit au préalable être totalement auditée de manière physique, c’est-à-dire en réalisant une étude sur site des propagations d’ondes dans les locaux concernés par ce déploiement. Pour cela, des « points d’accès test » sont déployés dans l’entreprise et des équipements d’analyse permettent d’étudier au mieux les emplacements des points d’accès qui seront ensuite installés de manière fixe et définitive. Pour ce qui concerne le roaming en Wi-Fi, c’est la norme 802.11e qui le gère dans les points d’accès compatibles. Quant à la gestion des points d’accès, des politiques de sécurisation et autres contraintes d’accès au réseau, les points d’accès gardent leurs caractéristiques propres à satisfaire la stratégie de la société.

Pour assurer la mixité d’appels en mode GSM dans un environnement Wi-Fi, un smartphone Wi-Fi peut suffire puisque c’est l’applicatif installé qui gèrera ensuite toutes les couches d’application de télécommunications, comme par exemple le SIP, système à la fois universel par le principe et la technologie, mais limité en termes d’usages sur mobiles aux applicatifs disponibles ; l’avantage du Smartphone est alors déterminant puisque disposant de nombreux logiciels clients SIP potentiels.
C’est plutôt le cas de l’UMA (Unlicenced Mobile Access) qui est particulier, car sa technique consiste à garder la technologie du GSM et de l’encapsuler dans un dispositif logiciel pour le faire transiter au travers de différents réseaux, dont éventuellement le Wi-Fi (offre Unik d’Orange). Cette dernière solution associe totalement l’utilisateur à son mobile et l’oblige à utiliser le réseau de transit dont le coût est directement lié à ce que l’opérateur mobile jugera opportun de proposer.                                     


Téléphone SIP sans combiné

fig04linksys.jpg

Le 802.11n « draft » professionnel chez Linksys.

Une solution tout à fait élégante et efficace pour disposer d’un téléphone sans fil SIP dans son bureau sans nécessiter de combiné physique consiste à exploiter une oreillette Bluetooth connectée à son PC de bureau ou son portable où est installé un logiciel de téléphonie SIP (ou autre) connecté à l’infrastructure téléphonique IP de la société. Sorti du bureau, c’est le GSM éventuellement en Wi-Fi/UMA ou en Wi-Fi/SIP qui prend le relais.


Du haut débit dans le Wi-Fi

Parmi les solutions intéressantes dans le domaine du 100 % sans fil haut débit déployable en complément de l’Ethernet, et/ou du CPL, le Wi-Fi 802.11n ou plutôt « pré-n » s’est largement démocratisé depuis la fin de 2006. Tous les fabricants de réseaux Wi-Fi sont passés à cette « pré-norme », que ce soit Linksys, filiale de Cisco ou des Belkin, société plus connue pour ses accessoires informatiques en matière de câblage qu’en équipements réseau actifs.

Dans tous les cas, ces sociétés misent sur le fait que seule une mise à jour du firmware des points d’accès et des cartes clientes suffira à passer à la norme définitive. La grande force du 802.11n, outre une compatibilité descendante vers le 802.11b et 802.11g, c’est de vouloir quasiment battre à la fois le CPL et l’Ethernet filaire sur leurs propres terrains en proposant des débits théoriques pouvant dépasser les 500 Mbits/s – débit qui décroit toutefois exponentiellement en fonction du rayon et des obstacles.


CPL sur toute la ligne
Le CPL a évolué de manière drastique depuis environ trois ans. À l’origine de cette évolution, la volonté d’établir des standards, celle d’augmenter les débits et celle de satisfaire aussi bien aux besoins des professionnels que des particuliers. À ce jour, les gammes de produits CPL ne se préoccupent plus uniquement du transport du réseau IP via les prises électriques et le réseau électrique : il existe des boîtiers d’adaptation capables de transporter le réseau d’un medium à un autre, c’est-à-dire d’un réseau électrique au réseau d’arrivée du câble pour la télévision en passant éventuellement par le câblage téléphonique, etc. Tout cela en respectant les signaux transportés à l’origine dans les médiums.
Ainsi, si vous utilisez les câbles coaxiaux d’arrivée d’antenne de télévision, le boîtier CPL en tiendra compte et laissera passer les signaux TV. Idem pour le satellite, la FM, etc. Nombre de bâtiments peuvent ainsi exploiter ces réseaux physiques câblés comme passerelles avec d’autres réseaux filaires, mais aussi avec le Wi-Fi. Le but de ces équipements est de délivrer de l’Ethernet sur tous les réseaux câblés.
En outre, certains équipements CPL peuvent aussi offrir une administration SNMP capable de gérer des nœuds de réseau et des équipements connectés au réseau via le CPL, comme le fait un switch. Parmi les standards du CPL sur courant électrique, le Homeplug fait partie des acteurs importants. Mais il existe d’autres « standards » concurrents, voire des équipements propriétaires, ou encore des équipements propriétaires qui apportent un support de certaines spécifications de standards. L’approche en matière de CPL s’effectue aujourd’hui sur le marché en analysant les capacités intrinsèques de puces fabriquées par Intellon, Spidcom, DS2 et de nouveaux acteurs qui commencent à faire leur apparition. Parmi ceux qui intègrent le mieux le CPL dans une offre couplée réseau classique/Wi-Fi et CPL, Devolo, Lea et Olitec sont parmi les plus au fait de la convergence technologique.
Notez pour finir que la seule réelle contrainte universelle du CPL, c’est de s’assurer de la compatibilité des équipements utilisés sur le même réseau câblé. Une mauvaise adéquation d’un équipement sur un réseau câblé provoque un dysfonctionnement réel ou une panne totale du réseau.




Passez au sans fil !

fig06denisweil.jpg

Denis Weil, le directeur marketing d’Olitec, souligne la nécessité d’adapter la solution aux besoins du client.

Dans l’absolu, passer au sans fil, c’est choisir principalement une architecture Wi-Fi dotée de la qualité de service appropriée à l’usage de la téléphonie ou non, et nécessitant donc éventuellement à la fois une qualité de service et un roaming en fonction de la mobilité des personnes qui utilisent le réseau. Pour les petites entreprises, qui privilégient l’usage de la téléphonie sur celui de l’accès aux données, l’usage du DECT pour la téléphonie et celui du Wi-Fi pour les données, reste un couplage très optimal et peu onéreux en termes d’étude.
Windows Mobile 6
Réduire
Windows Mobile 6
Le tout intégré ultra rapide
Par Olivier Pavie - Copyright L'Informaticien, tous droits réservés

510front.jpg
wm604ipaq510f2.jpg

L’ipaq 510 voice messenger sous Windows Mobile 6, un rude concurrent pour les solutions Symbian.

Avec Windows Mobile 6, Microsoft a revu sa copie à plus d’un titre. Meilleures performances, meilleure intégration, meilleure ergonomie, meilleure gestion de l’ensemble des types de connexions : c’est la première fois qu’une version de Windows accélère même les anciennes générations d’équipements !

À ne pas en croire ses yeux, ni ses oreilles. Windows Mobile 6 plus rapide que Windows Mobile 5 à processeur identique ? Certes, ces tests, nous n’avons pas pu les effectuer nous-mêmes, à l’heure où si peu d’équipements sont disponibles. Cependant, tous les témoignages concordent, et ce que nous avons pu tester nous est apparu bien plus rapide et ergonomique que la version précédente. C’est la mise à disposition de Windows Mobile 6, pour quelques équipements qui se verront octroyer le droit de migrer de Windows Mobile 5 à cette nouvelle version, qui nous permettront alors de juger de l’authenticité à 100 % de cette constatation générale. Chez HTC (ex Qtek), deux ou trois modèles seront concernés. Chez HP, c’est notamment le fameux iPaq 6915 qui se verra rajeunir d’un coup d’un seul.


Un vrai Windows dans la poche

La véritable nouveauté de la nouvelle version WM6 tient déjà dans sa nouvelle ergonomie appliquée à des formats de téléphones tout à fait classiques. Le look Windows sur un écran où l’on est plutôt habitué à du Symbian, c’est déjà la grande nouveauté WM6. Le prototype HP iPaq Voice Messenger équipé de WM6 est surprenant. Il est assez inhabituel de parvenir à ouvrir une feuille de calcul Excel sans utiliser de stylet ou d’écran tactile, simplement avec les touches que l’on a l’habitude d’utiliser avec Symbian, à savoir, la touche « pad » et les deux touches qui la jouxtent.
Pour compléter le tableau, l’offensive de Windows Mobile 6 tient aussi dans les fonctions que peuvent déjà intégrer ces petits appareils. La preuve en est encore donnée avec l’iPaq Voice Messenger, qui, comme son nom l’indique est capable (en anglais au moment où nous écrivons ces lignes) de traiter la voix. Les logiciels qui équipent cet appareil supportent les commandes vocales et, très pratique, la réponse audio aux e-mails reçus. La technique est simple mais efficace : vous décidez tout simplement de répondre vocalement à l’e-mail et vous enregistrez votre message qui est automatiquement transcrit au format wav et intégré dans le message de réponse que vous composez. Si vous êtes pressé et si votre téléphone vous comprend bien, d’une simple pression sur le bouton d’enregistrement de l’appareil, vous activez le dispositif de commande vocale et vous pouvez demander vocalement au téléphone d’adresser un mail à telle ou telle personne sans utiliser de clavier. Ceci est quand même bien plus sympathique que le T9 pour aller à l’essentiel !


Voix et mobilité : tout dans la nuance
Présentées à Cannes à la fin-avril, les technologies de la société Nuance (ex-Scansoft ayant intégré les principaux acteurs du traitement vocal, comme Dragon Software, Lernout & Hauspie, Philips Speech Processing…) arrivent aujourd’hui à prouver concrètement que l’usage de la reconnaissance vocale généralement dénommée ASR (Automatic Speech Recognition) et par ailleurs de la synthèse vocale (TTS ou Text To Speech), y compris sur des équipements mobiles, sont tout à fait opérationnels pour des applications intégrées et remplacent efficacement le fameux T9, voire les mini-claviers, pour de nombreuses applications. On ne parlera pas ici de l’intégration de ces technologies dans les serveurs vocaux qu’utilisent les grandes entreprises comme Air France (technologie Nuance) pour leurs services aux clients ; leur traitement vocal est désormais particulièrement spectaculaire. Rappelons aussi ici qu’il existe une technologie de traitement vocal adaptée au Web baptisée VXML ou VoiceXML dont la syntaxe est standardisée par le W3C, mais dont la grammaire est entièrement « dans la nuance ».




Le mail cœur de cible

Microsoft a compris que la première « killer app » du Smartphone et du PDA Phone, c’était le mail. L’éditeur l’avait montré en 2006 avec l’introduction de son PushMail dans WM5, il continue à améliorer la technique en ajoutant une meilleure intégration de l’outil messagerie au cœur de son système. L’affichage HTML est de rigueur. Les images incluses dans un mail s’affichent directement, ainsi que toute la mise en page. Si vous n’êtes pas connecté à Internet, soit directement, soit via Activesync (voir encadré), seuls les éléments dont la source est sur le réseau ne feront évidemment que marquer leur emplacement, comme le fait toute page Web qui ne trouve pas un contenu dont le placement est prévu.

 
Centre de connexion

Le principal problème avec la mobilité, c’est que l’on ne sait pas toujours ni à quelle fréquence, ni à quelle technologie se vouer pour communiquer. C’est un peu comme se demander quel type de carburant mettre dans une voiture que l’on ne connaît pas. Microsoft, comme lors du passage de Windows 9X/Me/2000 à Windows XP (et encore plus avec le SP2), a refondu les outils hétéroclites de communication en un véritable cœur de communication. Les technologies de connexion sont intégrées à WM6 d’une manière entièrement revue et corrigée par rapport à la version WM5. Cela se comprend aussi, la version WM5 intégrait le centre de connexion primitif et assez opaque pour un néophyte depuis l’époque de Windows CE, c’est-à-dire depuis cinq ans ou plus. Il n’existait pas un véritable concentrateur de communication, comme c’est le cas aujourd’hui, y compris dans le nouveau domaine de la VoIP associée à une gestion multi-réseau.


Synchronisation efficace
Activesync reste au cœur de la stratégie Windows Mobile. Pour la version WM6, c’est Activesync 4.5 ou ultérieur pour Windows XP et une intégration transparente pour Vista qui offrent le cadre de compatibilité et d’échange de données entre le PC et les appareils compatibles Windows Mobile 6. Si Activesync ou ultérieur est indispensable pour la version 6 (avec une version précédente, l’appareil refuse de se synchroniser et demande de lui-même la version 4.5 ou ultérieure), c’est pour la simple raison que les pilotes USB pour tous les appareils de dernière génération y sont intégrés. D’après nos tests, les anciens appareils sous WM5 continuent à exploiter Activesync comme auparavant, y compris avec une version 4.5. De la même façon, deux appareils sous Windows Mobile 5 et 6 peuvent indifféremment se raccorder au même PC et synchroniser les mêmes données de la même façon ; les deux appareils mobiles se retrouvent alors avec le même carnet de contacts, etc. Ce qui changera principalement, c’est la façon dont seront par exemple synchronisés les mails puisque dans le cas de Windows Mobile 5, le HTML n’est pas géré alors que WM6 le supporte parfaitement. L’intégrité de l’apparition de données synchronisées dans un mode Web sera donc différente d’une plate-forme à l’autre. Notez qu’Activesync 4.5 n’étant pas compatible Outlook 2000, il n’est pas possible de passer à WM6 en conservant cette antiquité.

vm605vista01.jpg

Sous Windows Vista, Activesync fait partie du système, le mobile est automatiquement détecté sans avoir à installer quoi que ce soit.





VoIP profilée

Alors que vous disposez du Wi-Fi partout dans l’entreprise, et que votre IPBX y est couplé, ainsi qu’à votre réseau filaire classique, combien de fois vous a-t-on parlé d’incompatibilité entre le combiné Wi-Fi que vous possédiez déjà et les particularités de votre IPBX ? Le problème est résolu dans Windows Mobile 6 ! Les plus grands équipementiers ont planché pour s’offrir une compatibilité avec la plate-forme WM6. L’UMA n’est ainsi plus qu’une option parmi un panel de compatibilités avec des technologies bien moins onéreuses en termes de communications pour les professionnels. WM6 possède ainsi des certifications pour Avaya, Nortel, Cisco, Alcatel. D’autres (y compris Skype) sont en passe d’apporter des solutions pour certifier le fonctionnement de WM6 avec leurs dispositifs de VoIP.


Office optimisé et autonomie accrue

Non content d’apporter une version complète d’Office Mobile à tous les équipements WM6, et pas seulement certains modèles comme c’était le cas avec WM5, le nouveau système apporte des exploitations plus riches de la messagerie et de l’agenda si le serveur exploité est de type Exchange 2007. En fait de services accrus, ce sont surtout les professionnels qui en profiteront. Microsoft annonce en effet le support de la protection IRM pour les e-mails, protection qui autorise un chiffrement complet des mails dans l’ensemble de la chaîne entre le serveur et les différents équipements qui les exploitent ; cette particularité est une autre des nécessités de l’usage d’Activesync 4.5 ou ultérieur.
Nous n’avons pas encore pu assez « jouer » avec WM6 pour être convaincu de toutes les avancées qu’il comporte. Une chose est claire, c’est que l’usage de l’interface de l’iPaq 510 s’est avéré convaincant en comparaison avec l’ergonomie, les services et les applications disponibles sous un équipement de même gamme équipé de Symbian. C’est déjà ça…


Jérémy Werner, chef de produits PC de poche chez HP France
« Une autonomie remarquable en VoIP »
Interrogé dans le cadre d’un test que nous avons conduit avec l’iPaq 510 d’HP, Jérémy Werner nous donne son point de vue sur l’arrivée de Windows Mobile 6 et de ce qu’il apporte. Pour lui, ce qui est à noter en termes de puissance, c’est le réel gain en rapidité, de l’ordre de 30 % à processeur équivalent, ce qui donne une sensation de fluidité accrue dans l’usage du mobile. Le second point extrêmement positif en termes qualitatifs, c’est l’amélioration du Smartdialing, beaucoup plus efficace selon lui. Par ailleurs, sur un mobile comme l’iPaq 510, l’autonomie en communication VoIP atteint les 4 h 30 mn, ce qui est remarquable pour ce genre de technologie sur un mobile aussi sophistiqué. En termes de confort d’utilisation, la compatibilité HTML d’Outlook pour Windows Mobile 6 est un atout fondamental. Sur le positionnement plus particulier des produits de sa gamme, il voit un positionnement qui se renforce dans le monde grand public, notamment avec des produits comme l’iPaq 510, dont les fonctions de commande vocale et de réponse vocale à un mail reçu de manière classique sous Outlook permettent de s’affranchir du pénible T9. Pour les produits PDAPhone, il voit un renforcement de l’usage professionnel. Jérémy en a profité pour nous informer que l’iPaq hw6915 pourrait bénéficier d’un passage à WM6 ; l’histoire ne dit pas si cela entraînera un surcoût ou non.