jeudi 29 septembre 2016
 
L'INFORMATICIEN N°38
Numéro de juillet-août 2006

INF38_001.jpgDans ce numéro bimensuel, L'Informaticien vous fait passer les portes blindés des laboratoires qui font les technologies de demain. De la nanotechnologie aux processeurs universels, de l'encre électronique aux transistors transparents, rien n'a été oublié pour faire en sorte que la réalité dépasse la fiction... il n'y manque peut être que le fatalisme propre aux meilleurs romans de science-fiction traitant de l'omnipotence de terribles Intelligences Artificielles. Ne voulant pas déroger aux règles du genre, nous avons envoyé notre rédacteur en chef à Helsinki, dans les laboratoires de F-Secure, histoire de nous rappeller que les Virus se propagent de manière effrayante sur le réseau mondial. Qu'à cela ne tienne, les (futures) menaces n'ont qu'à bien se tenir, puisque L'Informaticien développe un article complet dédié à la sécurité des réseaux familiaux et des appareils mobiles. Enfin, pour ceux qui sont restés chez eux pour l'été, nous leur avons réservé un atelier intitulé "Installer Linux sur un Mac à l'aide de son Ipod". On s'occupe comme on peut...
Emploi
Réduire
Informaticiens : une véritable pénurie à venir ?
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés


La chanson de la pénurie à venir chez les informaticiens et du désintérêt marqué par les jeunes vis-à-vis des filières scientifiques est déjà entonnée, comme juste avant l’an 2000. Or, quelques mois plus tard, les informaticiens se retrouvaient sur le marché de l’emploi, et il y en avait soi-disant beaucoup trop. Allons-nous revivre le même revirement ?


CIMG0075.jpgPour CapFi Technology, la pénurie d’informaticiens commence déjà à se faire sentir.
Toutes les sonnettes d’alarme sont en train de retentir dans le Landerneau de l’informatique avec une pénurie annoncée de talents dans les prochaines années. Certaines SSII commencent même à déjà subir le phénomène. CapFi Technology, une société de services spécialisée dans le secteur de la finance, a beaucoup de mal à trouver des candidats, souvent attirés par le chant de sirènes plus généreuses dans ce secteur. Ce ne sont pas les différentes mesures incitatives ou avantages proposés qui changent véritablement la donne. Pêle-mêle, ce sont salaires à la carte, parcours et suivi de carrière individualisés, formations en finance, en informatique, en gestion de projet et en communication, qui sont proposés aux recrues de l’entreprise. Ainsi, le salaire à l’embauche varie entre 35 000 et 45 000 euros pour un ingénieur débutant.
À l’usage, cela ne semble pas suffire. Il faut y ajouter le profil spécifique des ingénieurs recherchés sachant combiner savoir-faire et « savoir être ».
L’entreprise réalise cependant des recherches tous azimuts et dédie une équipe de trois personnes à 75 % du temps dans ses opérations de recrutement.
Un des viviers de l’entreprise est l’ENSIMAG, une école d’ingénieurs en informatique et mathématiques avec un département spécialisé en finance. Ce département forme 40 diplômés par an. 60 % de ces élèves sont d’origine étrangère. Les mesures d’immigration choisie récemment votées par les parlementaires risquent de compliquer encore la donne. Le gérant de CapFI, Olivier Delabre en est lui persuadé.
Le reste tient du parcours du combattant. Ces élèves étrangers doivent recevoir l’accord des autorités pour travailler sur notre territoire. Avec les différentes autorisations, il faut compter entre 3 et 6 mois avant d’embaucher la personne concernée. Coût de l’opération : 1 600 euros. Encore faut-il que le marché ou le projet ait attendu. Ce n’est pas souvent le cas.
Le résultat global de cet effort de recrutement est loin d’être à la hauteur des investissements. En un an, 260 personnes ont été contactées, 35 candidats ont été retenus, 15 ont été embauchés. Les objectifs étaient d’en embaucher 50. On est loin du compte. Un plan dans cette entreprise prévoit de conclure 100 nouveaux recrutements dans les quatre prochaines années. Quasiment impossible à réaliser dans le contexte actuel.


Un sombre tableau à relativiser

Pourtant, il y avait près de 30 350 demandeurs d’emploi dans le secteur informatique à la fin mars 2006. La décrue du chômage dans ce secteur s’accélère. Cependant les chiffres ne sont pas exceptionnellement encourageants à moyen terme. Ainsi, le rapport est d’une création nette d’emploi pour quatre recrutements bruts. Par ailleurs, il ne faut pas prendre pour argent comptant toutes les annonces de plan de recrutement. Le MUNCI (Mouvement pour une union nationale des consultants en informatique) note de nombreuses offres d’emplois bidons ou relevant de l’étude marketing ou de la publicité pure et simple pour faire bonne figure. Il faut aussi compter sur les recrutements abandonnés.
Le même organisme relève que pour profiter de la faible embellie du moment, il vaut mieux au minimum arriver avec bac+ 4, être Francilien et ne pas être purement dans la technique. Eh oui, selon eux, cela passe mal d’être développeur une fois les 40 ans passé !
Autre point souvent avancé, la désaffection des filières scientifiques. Le MUNCI rappelle cependant qu’elle touche principalement la physique et la chimie, comme l’indique le rapport Ourisson pour le compte du ministère de l’Éducation nationale. Cette baisse est d’ailleurs compensée par une remontée des effectifs dans les écoles d’ingénieurs qui ont la réputation de mieux placer leurs ouailles.
Si des profils pointus risquent de manquer, ce n’est pas le cas d’informaticiens formés par nos écoles. Il n’y aurait donc pas à s’affoler quant à un manque patent de compétences. Le problème semble plutôt au niveau de l’écart existant entre la formation et les besoins immédiats des industriels de l’informatique.



Les jeunes diplômés s’insèrent mieux sur le marché du travail
La conférence des Grandes écoles réalise chaque année une enquête sur l’insertion des jeunes diplômés. L’année dernière avait déjà marqué un retournement de tendance sur le taux d’insertion pour s’établir à 75 %. Le début de l’année 2006 montre encore une progression avec un taux de 80 %, retrouvant le niveau de 1997 et 1998, lequel marquait une forte reprise économique. Le taux est de 82 % pour les écoles de management et de 79,1 % pour les écoles d’ingénieurs. Sur 10 recrutements, 7 sont réalisés par le biais de stages ou de projets de fin d’études. 13 % sont issus de candidatures spontanées. 23 % s’effectuent par le biais de sites Internet. Le secteur des technologies de l’information assure 14 % des recrutements des ingénieurs devant le BTP et les sociétés d’études et de conseils, mais loin derrière l’automobile et l’aéronautique.



Microsoft et l’EISTI signent un partenariat
L’éditeur et l’École internationale de sciences du traitement de l’information viennent de signer une convention portant sur plusieurs axes. Pour les étudiants et les enseignants-chercheurs, la convention va développer les échanges avec Microsoft. Elle va porter aussi sur l’accompagnement de la mise en situation professionnelle des élèves. Les logiciels de l’éditeur seront mis à disposition. Un accompagnement des projets étudiants dans le cadre extrascolaire sera effectué. L’accord comporte aussi un volet de fourniture d’infrastructure pour l’école. L’éditeur aidera à déployer des technologies Microsoft pour l’utilisation interne avec un accompagnement d’experts et par la participation des personnels de l’école à des conférences. Un projet de Medialab servira de démonstrateur en s’appuyant sur des technologies Microsoft.

Partenariats
Réduire
De nouveaux outils pour la gestion des partenariats
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

Les partenaires des éditeurs, revendeurs, intégrateurs deviennent des denrées rares. Ils sont donc très convoités. Mais comment mener une démarche rationnelle vis-à-vis d’eux et privilégier les bons partenaires ? De grands éditeurs du marché se sont dotés d’outils pour rationaliser leur approche du canal de vente indirect.

«Pour les entreprises qu’ils traitent en direct, principalement les entreprises du CAC 40, les éditeurs ont les structures et les ressources afin de correctement gérer la relation et l’évaluation des partenaires. Pour les autres entreprises, les éditeurs les confient à des revendeurs de proximité de la relation. Là, l’outillage est moins affûté », assure Jérôme Morel, dirigeant d’Adexys, une société de conseil et d’édition de logiciel spécialisé dans l’évaluation des performances.

La plupart du temps le suivi et l’évaluation d’un partenaire se réalise à l’aide de documents Excel, et ne permet pas de réellement diffuser largement ce type d’information dans l’entreprise. Pourtant, la place prise par les partenaires devient cruciale pour la réussite d’un éditeur. Selon une étude récente de PAD, 60 % en moyenne de leurs affaires sont réalisées par ce canal. Pour Esker, un éditeur français, la part de chiffre d’affaires dans notre pays en indirect se monte à 37 %. Loin d’être négligeable…
De plus le recrutement de partenaires n’est pas sans risque. Le coût oscille entre 30 000 et 50 000 euros pour 100 000 euros de chiffre d’affaires net. Mais 70 % des partenaires n’arrivent jamais aux objectifs fixés. « Les coûts sont délirants », explique Jérôme Morel : « Le taux d’échec des partenariats est d’environ deux sur trois avec un coût moyen de 100 000 euros. » La plupart de ces échecs proviennent d’une vision à court terme du partenariat, avec principalement une évaluation purement financière sur les affaires générées par le partenaire et non sur un suivi régulier. Le recruteur de partenaires est donc un peu livré à lui-même et gère les partenaires comme des clients apportant du revenu direct.
Dans le domaine, des essais d’outillage avaient déjà été tentés avec une approche de gestion de la relation partenaire ou PRM (Partner Relationship Management). On ne peut pas dire que le concept ait rencontré son public !

Contrairement aux outils s’appuyant sur cette approche similaire à celle de la gestion de la relation client, nécessitant de nombreuses informations, la relation avec les partenaires a besoin de critères précis, rigoureux et récurrents, suivant une ligne directrice alignant la politique voulue par l’éditeur et ce qu’apporte un partenaire. « Il ne s’agit pas de juste dire que nous faisons de l’indirect ; il s’agit aussi de se donner les moyens de le faire par une politique et des processus précis pour connaître son écosystème, l’améliorer et discerner les actions pertinentes à entreprendre avec le partenaire », explique Jérôme Morel. « Dans la relation partenaire, ce sont plus des événements qu’il faut gérer que des informations », ajoute-t-il.


Une approche différente

Adexys propose de résoudre autrement ce problème, en mettant en place des éléments d’évaluation des partenaires sur des critères quantitatifs et qualitatifs, s’appuyant sur les différents événements rythmant la relation entre l’éditeur et son partenaire avec l’offre PASS (Partner Assessment).
« Notre méthode consiste à commencer par demander à notre client quel serait, selon lui, le partenaire parfait. De ces critères, nous réalisons une modélisation. Ces éléments d’évaluation permettent de créer une base de dialogue pour que les critères soient acceptés par tous. La plupart du temps, les entreprises ont beaucoup de mal à définir ce qu’est un bon partenaire. » Lorsque le raisonnement et les mesures d’évaluation sont validés, la solution est placée sur le serveur et fournie sous mode hébergé au client pour un abonnement mensuel à l’utilisateur.

La démarche permet ensuite d’entrer dans un processus d’amélioration continue de la relation avec le partenaire. « Les partenariats sont des relations de long terme, sinon la plupart du temps les intervenants sabordent eux-mêmes la relation »,assure Jérôme Morel.
Il note d’ailleurs que les relations changent avec une démarche de plus en plus professionnelle des partenaires qui ne sont plus prêts à accepter n’importe quoi.

La solution d’Adexys a déjà trouvé un preneur de référence. SAP l’utilise dans près de 60 pays et sur 120 référentiels sur ses lignes business One et All in One.
Concours
Réduire
Imagine Cup
La France tient bien son rang !

ImgineCup.jpgSi l’équipe de France a eu du mal à obtenir des résultats au Mondial de football, les équipes françaises pour le concours de programmation Imagine Cup ont fait mieux que figurer. Six équipes se sont qualifiées pour la finale en Inde, du 6 au 12 août. Bilan de cette compétition.

L’édition 2006 d’Imagine Cup a été un franc succès. 65 000 étudiants de 92 pays se sont inscrits dans les différentes catégories. Ils seront 250 finalistes à New-Delhi au mois d’août. La France a pris une place importante dans la compétition avec 8 500 inscrits. Notre pays est ainsi le troisième en termes de participation, derrière le Brésil et l’Inde, mais devant la Chine et l’Allemagne. Après les compétitions nationales et la présélection internationale, ce seront six équipes françaises qui feront le voyage. Un record pour la sélection française qui ne s’est jamais si bien illustrée. La France sera ainsi la première délégation en nombre d’étudiants qualifiés, ex-aequo avec la Pologne. Marc Jalabert, directeur de la division Développeurs et plates-formes d’entreprise chez Microsoft France, se réjouit de ce résultat : « À une époque où l’on note un certain désintérêt pour les sciences informatiques, il est très satisfaisant de constater que nos étudiants dans ce domaine s’illustrent dans un concours international. Ces résultats soulignent la qualité de notre enseignement qui reste d’un très haut niveau. »


Les différentes équipes françaises qualifiées
Les deux équipes qualifiées dans la catégorie Hoshimi ne seront pas les seules à faire le voyage en Inde. Ainsi, dans la catégorie Conception Logicielle, Vincent Bellet, Rodolphe Aoustin, Térence Scalabre et Julien Garino, étudiants du master MBDS de l’université de Nice Sophia-Antipolis, se qualifient avec le projet Dribble, une application qui se lance d’un media center et permet d’agir sur la santé de manière directe et indirecte en levant des alarmes lorsque la température d’une pièce est trop élevée ou lorsqu’une personne est tombée chez elle. L’application permet aussi de limiter le gaspillage d’énergie. Dans la catégorie Interface Designer, Johanne Piou et Vincent Lequemener, étudiants à l’ISEN Toulon, se sont distingués pour leur première participation en imaginant un moyen de combattre la pollution : un module capable de recycler l’air pollué et le rendre de nouveau respirable. Une équipe formée par Daniel Boteanu et Florin Duca, de l’INSA Lyon, les accompagneront dans la catégorie systèmes et réseaux.




Une finale déjà à l’heure indienne

Pour le projet Hoshimi, la finale française s’est tenue le 18 mai, dans une ambiance de jungle indienne. 250 qualifiés et supporters étaient présents pour départager les meilleurs des 3 200 programmes envoyés pour participer. Les huit dernières équipes se sont affrontées en direct lors de matchs disputés sur des écrans géants. Une association entre Flavien Charlon, de Centrale Lyon, et Manon Gaucher, de l’Enserg, l’a emporté assez facilement lors de cette finale. Ils seront accompagnés par Régis Hanol et Laure Porter de l’Université de Montpellier. Bravo à eux et bonne chance pour la finale de 24 heures de coding non stop !



Portrait de passionnés
hoshi.jpgLes vainqueurs de l’édition 2006 du projet Hoshimi ne sont pas des « inconnus »… Dans cette compétition, l’année dernière, ils avaient fait mieux que figurer en s’arrêtant au stade de la présélection internationale. Flavien Charlon et Manon Gaucher étaient eux-mêmes surpris de remporter la compétition française avec leur DLL. Cette expérience ne fut pas inutile : « Nous avons beaucoup échangé sur la stratégie. Ensuite, nous avons passé beaucoup de temps et de travail sur notre DLL. Et surtout des tests, beaucoup de tests. » Week-end et temps libres furent principalement employés à la compétition et à l’amélioration de la DLL. La principale difficulté de l’édition 2006 résidait dans l’ajout d’objectifs à réaliser durant la partie tout en collectant des points comme lors des éditions précédentes. « Il nous a fallu bien analyser nos points d’injections pour réaliser nos objectifs et bien penser nos stratégies pour ralentir l’adversaire », ajoute Flavien Charlon. Il est vrai que les vainqueurs de l’édition utilisaient les bloqueurs en maître. Le conseil de l’équipe victorieuse : « Ne jamais se décourager, car beaucoup lâchent après les premiers tours. Mais il faut s’accrocher, ça peut vraiment valoir le coup. Nous n’avons tiré que du positif de notre expérience. »


Edito
Réduire
Clearstream, Lahoud et Kitetoa

newstef26526_Copier5.gifObjectivement, nous n’avons qu’à nous féliciter de l’affaire Clearstream ! En effet, jamais L’Informaticien n’avait bénéficié d’une telle publicité. Pour un magazine comme le nôtre, toujours en quête de notoriété, les tribulations du couple Gergorin / Lahoud ont propulsé sous les feux de la rampe la noble et trop méconnue profession dont nous avons fait le titre de ce journal.
Toutefois, faut-il s’en féliciter ? Je ne commenterai pas le fond de l’affaire ; premièrement car telle n’est pas notre vocation, ensuite car je ne suis pas assuré – comme beaucoup d’observateurs – d’attraper toutes les ficelles de cette complexe et ténébreuse histoire. Pourtant, il demeure un fait dont je suis certain : si Imad Lahoud est informaticien, moi je suis archevêque… Je suis d’ailleurs très surpris que personne à ce jour ne se soit penché sur cet aspect de l’affaire. Les compétences de M. Lahoud en informatique apparaissent bien moins évidentes que sa capacité à entourlouper les gogos (je n’ose être plus précis, les procès en diffamation volant bas ces dernières semaines). Que quelques-uns des protagonistes se soient laissé impressionner par le fait que M. Lahoud ait possédé une clé USB à reconnaissance biométrique à l’été 2003 prouve simplement que ces personnes ne lisent pas notre magazine – ces appareils, et d’autres beaucoup plus futuristes, ont été présentés dans nos premiers numéros à la fin 2002. Mais une autre inconnue demeure : comment se fait-il que cette personne ait pu être embauchée au service informatique d’EADS ? Honnêtement, je ne vois que deux explications : soit il s’agit d’une couverture et il n’a jamais fait partie dudit service, soit l’intégralité du service informatique d’EADS (quelques milliers de personnes tout de même) est un ramassis de bras cassés et l’on comprend mieux – dans ces conditions – les mésaventures qui surviennent à l’A380.
Finalement, je croyais que seuls quelques adolescents en mal de sensations fortes pouvaient se laisser abuser par les exploits (réels ou supposés) des hackers, crackers, phreakers et autres pirates. Je croyais aussi que les travaux de gens sérieux, comme ceux de Kitetoa (http://www.kitetoa.com), avaient contribué à ce que la sécurité informatique soit traitée un peu plus sérieusement. Eh bien, c’est pire ! Grâce à Lahoud, les informaticiens passent pour des clowns. J’entends déjà les blagues… « Ah ouais, t’es informaticien ?! Comme Lahoud ! P f f f f f f f  !! »
S’il vous plaît, Mesdames et Messieurs de Kitetoa et autres groupes, il est temps de reprendre du service et venir montrer, et remontrer, à tous ces braves gens ce que signifient vraiment le hacking et la sécurité. C’est un peu pour la patrie, mais surtout pour l’honneur de la profession.

Stéphane Larcher
Chronique Futur
Réduire
Quand les poussières deviennent intelligentes
par Alain Baritault - Copyright L'Informaticien, tous droits réservés

Parmi les dizaines d’innovations qui s’y développent et bien souvent y meurent chaque année, la Silicon Valley est certainement en train de préparer l’une de ces révolutions dont elle a le secret. Celle-ci vient de Berkeley, université prestigieuse, auteur entre autres du fameux BSD Unix. L’innovation qui nous occupe aujourd’hui ne date pas d’hier, ce qui la rend encore plus plausible, mais aussi un peu suspecte, comme lorsque le PC a commencé à s’implanter dans les environnements de bureau il y a une vingtaine d’années. Depuis des lustres en effet, les capteurs sont utilisés dans l’industrie… où est l’innovation, où est la révolution… direz-vous ? On entendait déjà ces réflexions il y a 20 ans.


Depuis près de 10 ans, les chercheurs de l’Université de Berkeley, en liaison avec quelques industriels locaux comme Intel, ont développé des réseaux de capteurs sans fil (WSN, pour Wireless Sensor Networks) basés sur des capteurs intelligents appelés
« les poussières intelligentes » (motes ou smart dust). Différentes d’une puce, ces particules de petite taille sont enfouies (embedded). Elles ne sont ni un microprocesseur ni « un » RFID, mais sont dotées d’une fonction de capteur, de recueil des données, et d’une fonction de communication, d’échange de ces données avec d’autres poussières proches. Elles sont réunies sur un même réseau maillé (mesh) sans fil composé, en général, d’un nuage de plusieurs dizaines de ces poussières. Pour programmer ces poussières, faire fonctionner le réseau, faire circuler l’information entre ces éléments et la rendre utilisable, les chercheurs de Berkeley ont développé un système d’exploitation appelé TinyOS – système d’exploitation minuscule. Enfin, pour stocker et organiser les données de ces réseaux, ils ont développé la TinyDB – base de données minuscule.
Intel a bien souvent montré ces « nuages de poussières » lors de démonstrations au forum IDF ou ailleurs. Mais une pièce importante vient de s’ajouter au puzzle sous la forme d’une société appelée ArchRock, dirigée par Roland Acra, un ingénieur français bien connu dans la Silicon Valley, ancien VP de Cisco, devenu CEO de Procket Networks, racheté ensuite par Cisco… Cette société, créée en début d’année, a pour ambition de créer des passerelles standardisées entre le monde des réseaux de capteurs, essentiellement enfouis et industriels, et les réseaux d’entreprise, à savoir Internet.
« Nous voulons faire en sorte que les cols bleus puissent bénéficier de ce dont les cols blancs disposent avec l’informatique d’entreprise, explique-t-il, c’est-à-dire une passerelle qui permettra de faire le lien facilement et de façon invisible entre le monde des réseaux d’entreprises avec Internet et le monde des réseaux de capteurs. » Il peut compter sur le soutien discret, mais très efficace, d’Intel qui voit déjà miroiter des centaines de millions de « poussières ». Les utilisations des réseaux de capteurs sont quasiment infinies, dans l’industrie, en médecine, en agriculture, dans les villes, à la maison, dans les transports, dès que l’on a besoin de connaître des données en temps réel et que l’installation d’un réseau filaire est difficile, trop chère ou impossible. Il en existe déjà beaucoup, construits et installés de façon propriétaire, mais ces réseaux de capteurs sont aujourd’hui trop isolés dans leur propre monde et même incapables de communiquer entre eux. ArchRock veut tout simplement créer une interface normalisée et standardisée pour leur permettre de communiquer avec Internet et les systèmes d’entreprise. Roland Acra ne le dit pas aussi clairement, mais son ambition ne serait-elle pas tout simplement de devenir le Microsoft des « poussières » ?
Linux Journal
Réduire
Installer Linux à l’aide d’un iPod
Par Dave Taylor – traduit par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

IMG_2347.gifOubliez les petites clés USB et utilisez plutôt un vieil iPod pour amorcer Linux sur un Mac !

Le concept est grand : disposer à tout moment d’un appareil de poche que je puisse brancher sur presque tout poste Macintosh et, en réinitialisant simplement l’ordinateur, exécuter une installation Linux complète.
Il existe des tas de Linux pour architecture Intel, bien sûr, mais le Mac, jusqu’à très récemment, a été construit autour d’une architecture Motorola, et le choix est beaucoup plus limité. L’un des rares OS Linux pour le PowerPC est Yellow Dog, de Terra Soft (www.yellowdoglinux.com). Il coûte approximativement 60 dollars pour les CD d’installation et la documentation, ou 30 dollars pour l’« Edition du geek » (juste les CD d’installation). Vous pouvez le télécharger librement à partir du site Web. Je réponds tout de suite à la question triviale : puisque Mac OS X est déjà un Unix (sur une base FreeBSD avec de nombreux ajouts, dont vous pouvez trouver la plupart dans Darwin sur www.apple.com/darwin), pourquoi donc avoir besoin d’un Linux pour Mac ?

Bien que Mac OS X soit le splendide mariage d’un système d’exploitation Unix avec tous les avantages de l’interface graphique d’Apple, ce n’est quand même pas un Linux.
Si vous travaillez dans un environnement Linux et que vous souhaitez utiliser GNOME ou KDE, vous n’aurez pas à le greffer artificiellement à Mac OS X si vous pouvez utiliser à la place un Linux adapté à Mac OS X.

Pour ma part, je dispose d’un Apple iPod inutilisé, un modèle de première génération avec disque dur de 5 Go qui fonctionne avec une interface Firewire, plutôt que la plus moderne connexion USB, et les gens de Yellow Dog m’ont assuré qu’il est possible de cantonner la distribution Yellow Dog Linux (YDL) dans moins de 1 Go.
Un matériel avec 5 Go de stockage, c’est confortable. Bien sûr, j’y loge déjà un giga de musique et de livres audio que je souhaite conserver. Le premier test est donc de voir si je peux réserver 3 Go pour Linux tout en conservant 2 Go pour ma musique et mon contenu traditionnel iPod. Le parfait matériel Linux malin, n’est-ce pas ?

Donc, un après-midi je décide de m’y mettre et je branche mon iPod à mon PowerBook et j’insère le premier des quatre disques de l’installation de Yellow Dog, et redémarre mon Mac ; en gardant la touche C enfoncée pour forcer le matériel à démarrer sur le CD, et non sur le disque interne. Ceci réalisé, je tape la commande install firewire et c’est parti.


Partitionner l’iPod pour Yellow Dog

Une des nouveautés de la version 4.x de Yellow Dog est la présence de l’« installer » graphique Anaconda, qui rend les choses plus faciles. Il permet de retailler les partitions existantes pour faire de la place pour un nouveau système d’exploitation. La nouvelle partition peut être bootable, ce qui est un point critique pour le succès de notre projet.
Théoriquement, le partitionnement doit être plutôt simple. J’ai un matériel Firewire de 5 Go et je n’utilise qu’un peu plus de 1 Go pour ma musique. Retailler la répartition sous forme d’un système de fichier ext3 entre 2 Go pour l’iPod et les autres 3 Go devraient suffire pour avancer.
Ça, c’est la théorie, mais cela ne marche pas tout à fait de cette manière.
Dans le processus d’installation proposé par Anaconda, est offerte l’option d’accepter un schéma de partitionnement automatique ou d’utiliser Disk Druid pour réaliser manuellement les partitions. Je choisis la seconde option et je suis heureux de voir que l’un des disques est identifié comme « Drive/dev/sda (4 769 Mo) Model : iPod » ; donc je n’ai pas la crainte de voir reformaté ou retaillé le disque de mon ordinateur portable, ce qui serait vraiment ennuyeux. Pour retailler le disque iPod, je choisis simplement la partition et je clique sur Editer dans Disk Druid, et je spécifie ensuite que je souhaite bénéficier de 2 000 Mo plutôt que des 4 769 Mo proposés (ce qui me laissera 2,7 Go pour Linux). Automatiquement, il recalcule que l’espace se restreint à 1 999 Mo et, au bout de 90 secondes, reconstruit la partition du disque iPod, laissant une grosse partie d’espace libre.

C’est là que je rencontre mes premiers soucis du fait que je suis un geek Unix qui est sûr qu’il peut y arriver sans utiliser de manuel ou de documentation. Eh oui, même Terra Soft s’y attend et a introduit une note dans son guide d’installation (que je n’ai lu qu’après !) qui affirme : « Une erreur commune des utilisateurs, non parce qu’ils manquent d’intelligence, mais parce qu’ils sont futés et déterminés à aller vite pour utiliser leur nouveau système d’exploitation, est qu’ils oublient de lire le guide d’installation. Surtout ceux qui sont des experts Linux – vous vous reconnaissez ? »…
Heureusement, cet incident n’a été pour moi qu’un contretemps et n’a pas provoqué de dommages irréversibles. Au fond, alors que je pensais simplement créer une partition avec tout l’espace disponible, Disk Druid ne me laisse pas le réaliser sans créer une partition de démarrage Apple. Je finis par comprendre le problème : la partition de démarrage Apple remplace celle d’ext3 et n’est pas la même que le point de montage /boot pour une partition ext3. Mais ensuite, il insiste pour que je crée aussi une partition de swap.
Je préfère revenir en arrière pour recréer ma partition, puis une partition additionnelle, mais, finalement, voilà le résultat que j’obtiens (voir tableau).
Si vous examinez attentivement le tableau, vous pouvez constater que l’espace de swap est vraiment trop petit. Vous devez possédez au moins le même espace de swap que votre mémoire physique, et typiquement 1,5x est une meilleure taille pour des raisons de performance. Du fait que je possède 756 Mo de Ram, je dois disposer d’au moins 756 Mo d’espace de swap. J’indique que j’opte pour une taille personnalisée et je continue.
Temps écoulé depuis le début des opérations : une heure.


La bonne configuration

Après avoir jonglé avec Disk Druid pendant près d’une heure, c’est un vrai plaisir d’obtenir une question sur la configuration de DHCP et du réseau. Je prends les paramètres de configuration par défaut, à l’exception de celle du Firewall. Je n’aime pas ça, mais laissez-moi terminer avant de m’administrer une leçon sur la sécurité des systèmes d’information.

J’avais originellement choisi une configuration personnalisée pour une station de travail personnelle. En clair, mon package se composait de X Window System + KDE + OpenOffice.org + Mozilla + Evolution + IM Tools + des jeux. Pas bon du tout. Pourquoi ? Car ma partition est trop petite de 367 Mo !
Retournant à mes chères études, j’essaie de retirer certaines applications personnelles, me demandant pour chacune d’elles l’espace occupé dans l’installation. Il est tout de même étonnant – vraiment – qu’après toutes ces années, Anaconda n’indique pas la taille de chaque package quand vous l’utilisez. Je supprime donc Gaim (un utilitaire multi IM) pour 41 Mo, XChat pour 5 Mo (un client IRC), toutes les applications son et vidéo incluant GIMP et ImageMagic (pour 100 Mo) et le composant kdegraphics de KDE (26 Mo). J’essaie de nouveau l’installation… Encore trop grand de 185 Mo !

Comme vous l’imaginez, je deviens alors assez tendu ! Mais en recherchant un utilitaire Office, je suis à la fois sidéré et ravi de voir que le package de support 18n d’OpenOffice.org (un package avec beaucoup de librairies de localisation pour OpenOffice.org) avale 668 Mo. Comme je n’ai pas l’intention d’éditer des documents en allemand, en hébreu ou en japonais, je supprime tout cela joyeusement et remets en place toutes les applications individuelles supprimées auparavant.


18 minutes pour l’installation complète

75 minutes plus tard, je lance enfin le process capable de venir à bout de l’installation complète. 18 minutes après, je vois enfin apparaître l’écran « installation terminée ». Ce temps peut être attribué au fait que le disque Firewire de l’iPod est plus lent en accès que le disque dur interne du PowerBook. Il suffit alors de redémarrer !
Je tiens enfoncée la touche Option du clavier durant la séquence de démarrage pour être capable d’accéder à Yellow Dog comme une alternative à Mac OS X sur mon PowerBook. Après une petite minute, à la fois Mac OS X et Yellow Dog sont là ! Eureka !
Je sélectionne Yellow Dog Linux (YDL), clique sur la flèche « continuer » pour arriver dans le programme yaboot, où je tape L pour Linux et attends. De nombreuses informations d’état défilent, notamment eth0 (le port Ethernet interne) qui n’a pas pu s’initialiser, ce qui démontre que je ne suis pas connecté à un réseau. Bientôt s’ouvre la fenêtre du login KDE, où je tape les informations d’un compte nouvel utilisateur que j’ai déjà spécifié quelques secondes plut tôt dans l’utilitaire de démarrage.

On me demande ensuite de choisir les spécificités d’écrans et je suis ravi de voir qu’Apple est listé. En déroulant la liste, je tombe sur le bon écran : « Apple Titanium PowerBook G4 » et j’accepte la configuration par défaut.
L’étape suivante est particulièrement satisfaisante, puisqu’elle s’intéresse à la configuration du matériel audio et fonctionne avec les paramètres par défaut. Lors d’une installation précédente d’YDL sur le PowerBook, le sous-système audio n’avait jamais fonctionné. C’est déjà un progrès significatif !


Un environnement complet

Une fois la configuration de KDE effectuée, j’ai la possibilité d’utiliser un environnement Linux/KDE complet avec toutes les applications, utilitaires et jeux que je désire. Ce qui fut fait rapidement, facilement ; presque un plaisir de découvrir un environnement de travail et d’utilisateur différent.

Mais je veux encore tester et m’assurer que tout fonctionne parfaitement. Je ferme donc YDL et attends devant un écran noir, réalisant que je n’ai aucun moyen de savoir à quel moment l’arrêt du système est effectif. Heureusement, je regarde aussi l’écran de l’iPod, et une fois que le système s’est arrêté, l’iPod passe de « ne pas déconnecter » au logo Apple, et redémarre en mode iPod.
Bien sûr, l’iPod fonctionne parfaitement. Tous mes fichiers audio sont intacts et quand je consulte les informations système de l’iPod, il est confirmé que la capacité de stockage est de 1,96 Go, loin des 5 Go du début. Parfait !

Après avoir tout déconnecté, je redémarre le PowerBook et j’ai le plaisir de voir qu’il repart facilement sous Mas OS X, sans même indiquer que j’ai installé quelque chose d’inhabituel, tripoté le disque dur et redémarré sur un OS étranger quelques minutes plus tôt. Succès complet. En fin de compte…


Achetez un vieil iPod sur eBay

D’accord, tout cela est bien pour les fondus d’informatique, mais je pense qu’il est vraiment intéressant d’avoir un iPod pouvant démarrer n’importe quel G4 dans un environnement entièrement Linux à partir de quelques raccourcis claviers. Si vous avez besoin des fonctionnalités de Linux, sans vouloir toucher à votre système Mac OS X, cela peut être une très bonne solution, et vous ne perdez même pas les possibilités de votre iPod au passage. Une simple recherche sur eBay montre que vous pouvez vous procurer un de ces anciens matériels pour moins de 60 dollars en moyenne.

Il faut cependant rester prudent sur cette installation, principalement avec le système iPod le plus récent, qui a un système de fichiers légèrement différent. Si vous voulez le réaliser vous-même, ne suivez pas ma méthode et rendez vous d’abord sur le site de Terra Soft, lisez les notes sur les matériels et la configuration. Cela vous épargnera de nombreuses difficultés lors de votre installation.


Dave Taylor est membre de la communauté Unix depuis les années 80. Il est l’auteur du système de mail ELM. Il a écrit plus de 20 livres dont le fameux « Apprenez vous-même Unix en 24 heures ». Il invite tous les vrais fans de Linux à visiter son weblog à www.askdavetaylor.com.

Text10.gif
Sommaire
Réduire
MATÉRIEL

• IPTV et HD :
- La télévision numérique dans tous ses états
- Club-Internet et Microsoft TV : l’ADSL devient Media Center
• LINUX JOURNAL : Installer Linux sur un Mac à l’aide de son iPod


LOGICIEL

• PALMARÈS : Le Top 20 logiciels Linux : tous les programmes indispensables

DOSSIER

• Nanotechnologies, processeur universel, encre électronique…Dans le secret des labs


RÉSEAU

• Protégez votre réseau des attaques extérieures
• Virus : terminus Helsinki
• Sécuriser les appareils mobiles
• Des virus « mobiles » de plus en plus actifs


DÉVELOPPEMENT

• BONNES FEUILLES : Premiers pas avec Visual Studio 2005 Express. Un extrait de l’ouvrage
« Développer avec Visual Studio 2005 Edition Express » qui vient de paraître chez O’Reilly.


ITINÉRAIRES

• Emploi des informaticiens : une véritable pénurie à venir ?
• Gestion des partenariats :  les nouveaux outils
• Concours IMAGINE CUP : la France tient bien son rang !
• LIVRES : « VoIP à 200 % », de Theodore Wallingford
Linux
Réduire
Le Top 20 linux
Les logiciels indispensables
Par Noé Barat - Copyright L'Informaticien, tous droits réservés

L’ensemble des logiciels cités dans ces pages peuvent s’installer sous un système d’exploitation Linux, et plus particulièrement sous la dernière version Ubuntu 6.06 Dapper Drake, ou le « canard/dragon pimpant ».

Nous prenons Ubuntu comme référence car d’une part nous pensons qu’il s’agit d’une des distributions les plus abouties actuellement, et d’autre part l’installation d’un nouveau logiciel sous ce système se réalise très facilement. Il suffit la plupart du temps d’activer le dépôt univers et d’effectuer avec Synaptic une recherche sur le nom du logiciel. À dire vrai, il est donc aussi simple – sinon plus simple – d’installer un logiciel libre sous Ubuntu que sous Windows XP.


Les logiciels disponibles sous Ubuntu sont rapatriés de dépôts classés en quatre catégories, selon leurs licences et leur niveau de support. Il s’agit du :

• dépôt principal (« main » en anglais, qui est activé par défaut) :
il s’agit de paquets logiciels sous licence Ubuntu Linux avec un support de l’équipe d’Ubuntu ;
• dépôt restreint : paquets dont la licence n’est pas considérée comme libre ;
• dépôt univers :
un vaste choix de logiciels libres mais non supportés par l’équipe d’Ubuntu ;
• dépôt multiverse (multivers) :
logiciels non libres et évidemment non supportés par l’équipe d’Ubuntu.



Catégorie INTERNET

Le téléchargement efficace avec D4X

Downloader for X, en abrégé D4X, est un gestionnaire de téléchargement. Si vous voulez absolument connaître son équivalent sous Windows, on pourrait citer sans trop se tromper Getright. En effet, ce logiciel est capable de réaliser une reprise après interruption. Il peut mettre en file d’attente, ou mieux, découper le fichier à télécharger en morceaux pour gagner en vitesse, en prenant en compte plusieurs sources simultanément. Nous vous conseillons de configurer à quatre le nombre maximum de parties de votre fichier créées (« Number of parts to split files »). D’autres paramètres seront utiles à fixer comme le dossier cible, le nombre de téléchargements concurrents, et les unités affichées. Enfin, cerise sur le gâteau, il existe une extension pour Firefox, nommée FlashGot, qui peut utiliser D4X comme outil de téléchargement (https://addons.mozilla.org
/extensions/moreinfo.php?id=220). Pour y arriver, il suffit, une fois l’extension installée, de spécifier dans Outils / FlashGot / Plus d’options «Downloader for X» comme logiciel de téléchargement. D4X s’avère vite indispensable lorsqu’il s’agit de télécharger de très gros fichiers, comme les images iso d’Ubuntu, sans devoir courir le risque de tout recommencer, une fois arrivé presque au bout du rapatriement du fichier.

Downloader for x : http://www.krasu.ru/soft/chuchelo/


Vidéo-conférence

Skype n’est pas libre et la version stable sous Linux ne gère pas de Webcam. En revanche, AMSN supporte le chat vidéo (le plus stable des logiciels pour l’instant), ainsi que Gaim et Kopete. Ce dernier gère la vidéo-conférence compatible avec MSN. OpenWengo est libre et s’avère très prometteur. Il est possible avec ce logiciel de tester facilement son système – un peu comme avec Skype –, en appelant le 334. Mieux, une extension pour Firefox, déve-
loppée en XUL, existe pour ce système (http://www.openwengo.org/index.php/
openwengo/public/homePage/open
wengo/public/projectsFirefoxDownload
). WengoPhone peut aussi servir de client de messagerie instantanée MSN ou Yahoo via la bibliothèque libgaim – de gaim. Enfin, il existe sous Gnome et KDE, le logiciel Egika (ex-gnomemeeting) qui supporte les protocoles H.323 et SIP, et qui s’intègre parfaitement avec Novell Evolution 2. Sur le site d’Egika, vous pouvez obtenir votre propre adresse SIP. Egika et OpenWengo sont les deux logiciels que nous vous recommandons.
 
Amsn : http://amsn.sourceforge.net/
Gaim : http://gaim.sourceforge.net/
Kopete : http://kopete.kde.org/
OpenWengo : http://www.openwengo.org/
Egika : http://www.gnomemeeting.org/index.php


Lecteur de flux RSS

Liferea, sous licence GNU GPL, est un lecteur de flux RSS qui s’intègre admirablement bien à Gnome – et donc à Ubuntu. On l’appelle encore agrégateur de flux RSS. Il existe un tel lecteur de flux sous Thunderbird ou encore sous Firefox, mais Liferea est sans doute le plus abouti de tous. D’abord, il est compatible avec RSS/RDF, CDF, Atom, OCS, et OPML, et ensuite, pour chaque flux, il est possible de déterminer un intervalle de réactualisation – avec compression HTTP et support d’etag pour réduire la bande passante. Autre point fort : il supporte le flux audio (podcast). Liferea utilise un arbre pour classer les flux et intègre un moteur de recherche. Enfin, la fenêtre principale peut être réduite sous forme d’icône dans la systray de Gnome.
Liferea : http://liferea.sourceforge.net/


• À vos blogs

Gnome-blog est une petite application qui permet la rédaction rapide de billets. Une fois qu’il est installé, vous devez le configurer pour qu’il supporte votre système de blog – comme Dotclear. La configuration une fois terminée il vous suffit d’écrire votre premier billet grâce à la fenêtre de rédaction mise à votre disposition. Dans la même lignée, il existe l’application Performancing, une extension pour firefox (http://performancing.com/firefox).

Enfin, il existe aussi BloGTK, disponible dans les dépôts d’Ubunbtu, compatible aussi avec Blogger, Movable Type et WordPresset, et capable de gérer des catégories.

Gnome-blog : http://www.gnome.org/~seth/gnome-blog/
BlogGTK : http://blogtk.sourceforge.net/


Réseaux P2P

Mldonkey est un client P2P Open Source pour les réseaux BitTorrent, DirectConnect, Edonkey, FastTrack, Gnutella / Gnutella2, http / ftp, Kad / Overnet, OpenNap et SoulSeek. Son créateur est un Français, Fabrice Le Fessant de l’INRIA (Institut National de Recherche en Informatique et en Automatique), qui l’a programmé en langage Ocaml. Son atout est qu’il ne nécessite pas l’exécution d’une couche graphique. Un démon lancera mldonkey (sudo /etc/init.d/mldonkey-server start), et vous pourrez l’interroger via telnet ou via votre navigateur préféré. En effet, une fois le programme serveur lancé, vous avez le choix entre un GUI en GTK (mldonkey-gui), un accès http (port 4080 par défaut), et/ou un accès telnet en ligne de commande (par défaut sur le port 4000). Pour que les clients accèdent au démon à partir d’une autre machine, vous devez éditez le fichier « downloads.ini » en modifiant l’entrée allowed_ips = ["127.0.0.1";  "votre ip cliente"]. L’accès client telnet est possible via le port 4000 – par exemple, telnet localhost 4000. L’accès Web se réalisera en invoquant l’url http://ip_du_serveur:4080. Vous pouvez aussi créer un script qui sera exécuté à la fin de la récupération d’un fichier, ce qui vous permettra d’être averti par mail, d’analyser le fichier (par un anti-virus), de le graver automatiquement, etc.

mldonkey : http://mldonkey.sourceforge.net/


Catégorie MULTIMÉDIA

Kino

Kino est un logiciel graphique de haut niveau permettant la capture vidéo de caméscope DV, le montage, et l’export de vidéos « montées » vers le caméscope. En résumé, il s’agit d’un banc de montage virtuel audio/video simple et performant. Pour capturer un flux vidéo en provenance de votre caméra numérique, vous devez être équipé d’une interface IEEE1394 Firewire.

Kino : http://www.kinodv.org/


Musiciens en herbe avec Kguitar et Keditab

KGuitar est une « suite » pour guitariste. Il existe de nombreux utilitaires pour les guitaristes, allant du simple accordeur à l’éditeur de tablatures en passant par le rack d’effets. Kguitar est un éditeur de tablatures qui permet d’éditer des partitions et leurs accords pour la guitare, de disposer d’un dictionnaire d’accords vous permettant de définir des accords, et enfin de jouer le tout en midi. Le développement de Kguitar semble arrêté depuis mai 2005, et Keditab a pris le relais. Ajoutons qu’il existe un certain nombre d’accordeurs de guitare, comme Guitune (Gnome) ou fmit (KDE). Enfin, vous pouvez utiliser Dguitar, logiciel écrit en Java, qui peut afficher des fichiers GuitarPro ou des fichiers midi.

KGuitar : http://kguitar.sourceforge.net/
Keditab : http://kguitartmp.sourceforge.net/
Guitune : http://www.geocities.com/harpin_floh/kguitune_page.html
fmit : http://home.gna.org/fmit/
Dguitar :  http://dguitar.sourceforge.net/fr/index.html


• Édition de tags audio


Easytag est un logiciel sous licence GPL capable d’éditer des « metadata » de fichiers audios au format MP3, MP2, FLAC, Ogg Vorbis, MusePack et Monkey’s Audio (APE). Vous sélectionnez un fichier audio, puis à l’aide du bouton droit de la souris vous pouvez effectuer une recherche avec CDDB (Compact Disc Data Base : base de données pour disque compact musicaux). Vous pouvez extraire les tags en masse en balayant les fichiers d’un répertoire. Ce logiciel est simple d’utilisation et vous permettra de vous interfacer facilement avec des logiciels qui utilisent ces données comme Listen – un organiseur et lecteur de fichiers audio, équivalent d’iTunes.

Easytag : http://easytag.sourceforge.net/
Listen : http://listengnome.free.fr/


• Lecteur multimédia

VLC (VideoLAN Client) est l’équivalent de Windows Media Player. Ce lecteur multimédia est sous licence GPL, et il est capable de lire nativement avec une fluidité presque parfaite du  MPeg-1, MPeg-2, MP3, MPeg-4, du DivX, AAC, Ogg, des DVD (il intègre les codecs nécessaires au décodage de ces différents formats supportés). Il peut également diffuser de la vidéo. VLC lit et décode le contenu DTS et dolby digital en 5.1 des DVD, aussi bien que le format natif M2V en trame entrelacé.

VLC : http://www.videolan.org


• Gcfilms

Gcfilms, sous licence Gnu GPL, est une application gtk2-perl de gestion de collections de films qui récupère sur Internet des tags informatifs au sujet de chacun de vos films. Vous pouvez compléter cette information – à qui vous l’avez prêté, par exemple –, ou choisir une autre source d’informations. Vous pouvez évidemment initier des recherches selon divers critères, comme le nom du réalisateur. Un courrier électronique pourra être envoyé comme rappel à un emprunteur, et vous pouvez exporter votre catalogue en différent formats comme le HTML ou le XML.

Gcfilms : http://home.gna.org/gcfilms/


• Comix

Il s’agit d’un lecteur d’images et de BD sous Gnome écrit en python. Cette application s’intègre à nautilus en affichant la première image d’une archive cbz qui peut être une archive tar renommée avec cette extension. Il comprend la lecture inversée, le zoom, et un système de marque-pages qui vous aidera à reprendre la lecture là où on vous l’aviez laissée lors de votre dernière consultation. Notez qu’un unique dossier est utilisé pour stocker les miniatures de toutes vos images (par Nautilus) ce qui améliore la vitesse d’affichage.

Comix : http://comix.sourceforge.net/index.html


Catégorie LOGICIELS SCIENTIFIQUES


• Astronomie

Xephem est une suite d’outils qui se destine à celui pratiquant l’astronomie. Ce logiciel est notamment capable de prendre le contrôle d’un télescope (du type LX200). Et si vous avez l’ADSL, vous pourrez vous connecter à des bases de données sur Internet pour charger des photos du ciel. Mieux : il est capable de suivre des satellites artificiels, et même de traiter des données de spectrographie.

Xephem : http://www.clearskyinstitute.com/xephem/
Catalogue d’étoiles à charger : http://www.yvonnet.org/xephem.php


Mathématiques

Si vous recherchez des outils capables de rivaliser avec Matlab (Windows), nous vous en proposons trois : Scilab, Octave et Lush. Avec ces outils, vous pouvez visualiser graphiquement des matrices et des volumes. Nous ne sommes pas mathématicien, mais nous allons tenter de vous faire un tour de la situation. Matlab n’est pas libre, il est payant, mais reste la référence de par ses fonctionnalités et sa facilité d’utilisation. Les scientifiques qui ont appris à maîtriser son langage sont peu enclins à aller voir ailleurs, d’où l’importance d’outils compatibles. Ce n’est pas exactement le cas de Scilab qui propose un langage différent de Matlab – mais d’une syntaxe proche. Scilab est développé par l’INRIA. Certaines des fonctionnalités comme les sorties graphiques ne sont pas faciles à utiliser. Aussi, les paramètres des fonctions sont souvent déroutants et non compatibles par rapport à Matlab :

t=-50*%pi:0.1:50*%pi;
x=t.*sin(t);y=t.*cos(t);z=t.*abs(t)/(50*%pi);
param3d(x,y,z,45,60);
title=’parametric curves in R3     "
    (t.sin(t),t.cos(t),t.|t|/50.%pi)’;
xtitle(title,’ ‘,’ ‘);

Scilab contient des centaines de fonctions mathématiques, une possibilité d’interfaçage avec Mapple, Fortran et C grâce à des liens symboliques, des possibilités de graphiques 2D et 3D et d’animations, une grande quantité de librairies, des packages d’algèbre linéaire, d’optimisation pour les inégalités de matrices linéaires, de simulation, d’équations différentielles, et même de calcul parallèle. Scilab est gratuit, mais il n’est pas distribué sous la bannière de la licence GPL. Scilab est un environnement agréable pour faire du calcul numérique, car on a sous la main des méthodes usuelles, telles que la résolution de systèmes linéaires, le calcul de valeurs propres, la décomposition en valeurs singulières, la transformée de Fourier rapide, etc. Le langage est interprété et si des calculs lourds doivent être lancés, vous pouvez concevoir des sous-programmes C ou Fortran.

Octave propose un langage compatible avec Matlab (syntaxe compatible avec matlab 4), mais ne couvre pas toutes ces fonctionnalités. Cependant, Octave peut remplacer Matlab pour certains projets, et surtout il est distribué sous licence GPL. Lush tente une autre approche en voulant faire mieux que Matlab. Son potentiel est énorme et il utilise le lisp comme langage. Un des intérêts de Lush est la possibilité de l’interfacer facilement avec des bibliothèques de calculs C. Voici un code Lush qui dessine (via OpenGL) une tasse aux cordonnées x, y, z et avec les angles theta, phi et rho :

  (de teapot(x y z theta phi rho)
    ((-float-) x y z theta phi rho)
    (let ((mat (float-matrix 4)))
      (glPushMatrix)
      (glTranslatef x y z)
      (glrotatef theta phi rho 1)
      (mat 0 0.1745) (mat 1 0.01175)     "
    (mat 2 0.01175) (mat 3 1.0)
      (glMaterialfv @GL_FRONT @GL_AMBIENT mat)
      (mat 0 0.61424) (mat 1 0.04136) (mat 2 0.04136)       
      (glMaterialfv @GL_FRONT @GL_DIFFUSE mat)
      (mat 0 0.727811) (mat 1 0.626959)     "
    (mat 2 0.626959)
      (glMaterialfv @GL_FRONT @GL_SPECULAR mat)
      (glMaterialf  @GL_FRONT @GL_SHININESS     "
    (* 0.6 128.0))
      (glColor3f 1 1 1)
      (glut-solid-teapot 1.0)
      (glPopMatrix)))
 

Scilab : http://scilabsoft.inria.fr/
Octave : http://www.octave.org/
Lush : http://lush.sourceforge.net/


Catégorie LOGICIELS BUREAUTIQUES


• Compression P7zip

7Zip est un programme Open Source sous licence LGPL qui est capable de lire les archives RAR, CAB, ARJ, Z, CPIO, RPM, DEB, LZH, SPLIT, CHM, ISO, NSIS, ainsi que de lire et de comprimer des fichiers aux formats 7z, ZIP, GZIP, TAR, BZIP2 (du style de WinZip et WinRar sous Windows). Il est à noter que 7Zip supporte le chiffrement AES sur 256 bits et la création d’archives auto-extractibles. Sous linux, il existe une version en ligne de commande nommée P7zip.

P7zip : http://p7zip.sourceforge.net/


Publication assistée

Scribus est un logiciel révolutionnaire de PAO sous Linux (équivalent Windows : Quark Xpress). La première version de scribus est sortie en juin 2003, la dernière version stable (1.3.3.2) date de mai 2006. Cet outil GPL gère les profils colorimétriques et la quadrichromie. L’impression qui se dégage de Scribus est qu’il est très facile à utiliser : « intuitif » est le mot qui le caractérise sans doute le mieux. L’interface est claire. Vous disposez d’options professionnelles, comme le système de couleurs CMYK. La création de PDF est à la portée d’un enfant, les polices de caractères peuvent être incluses au PDF, et vous pouvez crypter vos fichiers. Les formats graphiques supportés sont le JPeg, le PNG et le Xpixmap. Le propre format de sauvegarde du logiciel se base sur le XML. Cette idée est géniale car en admettant qu’un jour vous désiriez manipuler/réparer ce format, il vous suffirait d’un éditeur de texte. Vous pouvez également importer ou exporter des fichiers au format SVG. Si vous avez quelques connaissances en programmation, vous pouvez étendre les possibilités de scribus en créant des scripts Python. Il est possible de travailler sur plusieurs documents à la fois et les performances globales sont bonnes.
Évidemment, faire de la PAO ne s’improvise pas. Vous devez créer vos cadres avec soins, puis importer vos textes bruts. C’est assez long et cela exige pas mal d’efforts. Un élément essentiel dans la maîtrise du logiciel est la création de maquettes. On les appelle aussi modèles (« template »). Ils vous feront gagner énormément de temps. L’habillage d’un texte est aussi opérationnel et constitue à faire en sorte qu’un texte « habille » un objet en suivant ses contours.

Scribus : http://www.scribus.net/


• Beagle

Beagle est un logiciel libre sous Gnome capable d’indexer toutes les données présentes sur votre ordinateur – l’équivalent de Google Desktop Search sous Windows. Il vous permettra de retrouver facilement vos documents, vos mails, vos pages Web visitées, vos conversations chat, vos images, vos fichiers musicaux. Son interface graphique sous KDE est Kerry.

Beagle : http://www.beaglewiki.org/Main_Page


Graveman

Graveman, sous licence GPL, utilisant la librairie GTK2, est ce que l’on appelle un « frontend » pour les logiciels en ligne de commande cdrecord, mkisofs, readcd, sox, flac, dvd+rw-format/dvd+rw-tools et cdrdao. En gros, il permet de graver des CD audio aussi bien que des CD et DVD de données, ou de graver des DVD (DVD9 à DVD9, DVD9 à DVD5) et des DVD vidéo. Son équivalent sous Windows est nero burning, quoique son interface GUI est plus sobre que ce dernier (Gnome oblige).

Graveman : http://graveman.tuxfamily.org/


Catégorie JEU

• Doom

Doom, initialement sorti en décembre 1993 par id Software, est un jeu vidéo de tir qui fait évoluer le joueur dans un environnement 3D. Ce jeu fut révolutionnaire à sa sortie et, de 1993 à 1996, le chiffre des ventes a dépassé les 2 millions d’exemplaires. Le code source du moteur de Doom est libre ; en revanche, les niveaux ne le sont pas, mais il existe des niveaux libres. Il est possible de jouer à Doom Legacy sous Ubuntu, qui est une version spéciale de Doom, avec des graphismes améliorés et une visée à la souris qui n’existait pas dans le jeu d’origine. Pour l’installer, il suffit dans un terminal de taper sudo apt-get install doomlegacy-{data,sdl,x11} puis de récupérer sur FreeDoom un niveau libre et gratuit (sudo apt-get install freedoom). La version shareware peut aussi s’installer via un sudo apt-get install doom-wad-shareware. Le logiciel démarre en tapant export LD_ASSUME_KERNEL=2.4.1 ; llxdoom -opengl.
p. 1
Réduire
Nanotechnologies
Quand la réalité dépasse la science-fiction…
Par Daniel Ichbiah - Copyright L'Informaticien, tous droits réservés


Accelerometer-SEM11008_Cop5.gifLes puces nanométriques sont déjà utilisées dans les téléphones mobiles d'aujourd'hui supportant jeux vidéos, prises de photo et lecture MP3.
Ordinateurs ultralégers et surpuissants, vêtements anti-taches, murs s’autoréparant… La nanotechnologie est passée du stade de la recherche à celui de la production d’objets de consommation courante.

« Je veux que, pour la Terre entière, microélectronique égale Grenoble – Isère.  » L’annonce s’apparente à un cri de guerre. Elle est proférée par le ministre de l'Industrie François Loos, le 2 juin 2006 à Grenoble, devant un millier d’industriels et officiels de la région. L’événement qui occasionne une telle liesse est l’inauguration de Minatec.
Avec Minatec, le gouvernement français, mais aussi la région de Grenoble qui a déboursé la moitié des 103,5 millions d’euros nécessaires à son élaboration, entendent frapper fort pour rattraper au plus vite le retard pris par la France en matière de nouvelles technologies de l’ultra miniature, avec une spécialisation dans l’électronique. Les équipements de pointe de Minatec et ses quatre mille experts l’amènent à rivaliser avec les plus grands, au niveau mondial.
Il était temps que se produise un tel sursaut car d’autres contrées ont perçu, bien plus tôt que la France, l’importance d’investir dans ce domaine. Dès le milieu des années 90, le Japon avait déclaré prioritaire cette technologie pour le xxie siècle et démarré un programme de recherche à grande échelle. La Chine avait placé la nanotechnologie comme un objectif clé de son 10e plan quinquennal s’étendant de 2000 à 2005. Pourtant, ce sont les États-Unis qui ont pris le leadership en la matière en raison des immenses investissements réalisés aux niveaux gouvernemental comme privé (3,6 milliards de dollars en 2004, dont 40 % seulement venaient de sources publiques). De ce fait, 56 % des brevets en matière de nanotechnologie sont actuellement issus des recherches menées outre Atlantique, la majorité provenant d’universités et de start-ups. L’Asie arrive en seconde position, essentiellement sous la forme de brevets déposés par de grandes sociétés telles que Fujitsu, Sony ou Samsung. Autant de propriétés intellectuelles qui pourraient produire des royalties durant de nombreuses décennies. Il faut savoir au passage que le marché mondial de la nanotechnologie est estimé à 1 000 milliards d’euros d’ici à 10 ans ! Minatec apparaît donc comme la concrétisation d’une prise de conscience française qu’une part importante du futur technologique de la France se joue dans les recherches actuelles en la matière…


Nano story

InsideIntel11574_Copier7.gifDans les usines d'Intel l'ambition est d'arriver dans la prochaine décennie sous les 22 nanomètres.
Pourquoi la nanotechnologie est-elle si importante ? Parce qu’elle représente une approche radicalement nouvelle de la production d’objets. Pour la première fois, l’ambition consiste à construire des structures et objets en modifiant la disposition des atomes.
Le 29 décembre 1959, le savant Richard Feynman énonçait les bases d’une telle science, évoquant la perspective de construire des machines en les assemblant depuis les électrons, protons et neutrons ! « Les principes de la physique, pour autant que je puisse le percevoir ne s’opposent pas à la possibilité de manœuvrer les choses atome par atome », a alors déclaré Feynman. Une décennie plus tard, Éric Drexler a bâti les fondements de la nanotechnologie en s’inspirant des thèses de Feynman. Dans son livre, Les moteurs de la création, il définit la notion d’assembleur – une sorte de mécanisme contrôlé par logiciel qui permettrait de combiner à l’envi les atomes entre eux. Il a fallu attendre le début des années 80 pour que la première percée technique intervienne avec l’invention, dans les laboratoires d’IBM à Zurich, du STM, un microscope doté d’un facteur d’agrandissement de cent millions. Le deuxième bond majeur a eu lieu en 1990 lorsqu’un autre membre d’IBM, Don Eigler, a pu utiliser le STM comme « pince à atomes » et écrire le mot IBM avec 35 atomes !

Depuis cette époque, la recherche a progressé lentement mais sûrement. De nos jours, il se passe rarement une semaine sans que l’on annonce une percée importante. 9 milliards de dollars sont actuellement investis annuellement dans le domaine et des nanomatériaux apparaissent au sein de plusieurs centaines d’articles de consommation courante (des rouge à lèvres plus fermes, des crèmes anti-âge et appareils acoustiques hermétiques à la sueur, etc.). Le Woodrow Wilson International Center for Scholars en a récemment recensé 212. Le domaine des cosmétiques arrive largement en tête (125), mais l’électronique est bien représentée (30). Si l’on étend l’analyse aux produits industriels, il est possible de dénombrer plus de cinq cents produits à base de nanomatériaux : textiles anti-taches, freins plus résistants en nanotubes de carbones (voir encadré), matériaux de construction auto-réparants, peintures ne retenant pas les saletés, micro-capteurs placés sous la peau pour le contrôle à distance du rythme cardiaque, etc.

crollescleanroom11332_Cop6.gifSalle blanche de Freescale à Crolles, près de Grenoble.


Les prodiges de la nano-informatique

Quel constructeur d’ordinateurs pourrait demeurer insensible à la promesse de nouvelles puces offrant des vitesses de traitement multipliées par un facteur de plusieurs millions , et tout autant pour la capacité des disques durs ! Ou encore la capacité à loger la quasi-totalité des composants d’une carte mère d’aujourd’hui sur une simple puce… Telle est pourtant la révolution en cours. Les perspectives sont si importantes que le secteur de l’électronique et des semi-conducteurs a représenté 41 % des investissements réalisés en 2004 par des sociétés de capital risque en matière de nanotechnologie (source : Lux Research). La R & D dans ce territoire du lilliputien captive l’attention des constructeurs et l’on ne s’étonnera pas d’apprendre qu’IBM et Intel figurent parmi les deux plus grands dépositaires de brevets.
nanoquartz0112543_Copier8.gifUn exemple de structure de nanoquartz.
Les grands fondeurs opèrent d’ores et déjà à l’échelle nanométrique et s’aventurent vers des échelles de plus en plus proches de l’atome. Chez Intel, c’est à partir de 2003 qu’une nouvelle ère a été franchie avec l’abord de la gravure à l’échelle de 90 nanomètres (nm). Dès lors, il devient possible d’intégrer 1,72 milliard de transistors dans un processeur, à comparer aux moins de dix mille que comportait le 8086 qui équipait l’IBM PC en 1980. En 2005, le cap des 65 nanomètres a été franchi et il a permis d’ouvrir la perspective prochaine de processeurs opérant à la vitesse de 10,5 GHz. La maîtrise de telles échelles devient essentielle à une ère où les fonctions se multiplient dans les ordinateurs portables – 96 % de ceux-ci intègrent des connexions sans fil en 2006.
De son côté, AMD en est encore à 90 nm et compte atteindre une finesse de 65 nm en 2007, et Intel ambitionne pour sa part de parvenir à 45 nm – et même 32 nm en 2009. Durant la décennie suivante, l’objectif serait de passer sous les 22 nm.


Que signifie nanotechnologie ?
Nano est le terme grec équivalent à 10 à la puissance –9, soit un milliardième. Un nanomètre correspond à un milliardième de mètre, soit l’échelle atomique : un tel espace pourrait loger 20 atomes d’hydrogène.



Non loin de Minatec, le centre de R & D de la société Freescale Semiconductor (ex-Motorola) est tout aussi concerné par une telle évolution. Miniaturiser les composants est donc devenu essentiel d’autant que, comme l’explique Andreas Wilde de Freescale : « Un téléphone mobile d’aujourd’hui doit aussi permettre de prendre des photos, offrir des jeux vidéo, faire office de lecteur MP3, tout cela pour un prix de vente d’une centaine d’euros ! » Chez Freescale, qui travaille dans le cadre d’une alliance avec Philips et SMT Electronics, après une année de succès dans la gravure à 90 nm, on s’est attaqué en octobre dernier à l’échelle des 65 nm. La société s’est par ailleurs intégrée à un projet européen (NANOCMOS) qui vise de son côté les caps des 32 et 22 nm.


Minatec parmi les 3 premiers mondiaux
Réparti sur 8 hectares, le centre Minatec peut accueillir 4 000 spécialistes du domaine : chercheurs, ingénieurs, enseignants, étudiants… Un tel ensemble n’aurait pas d’équivalent en Europe, les trois autres centres de nanotechnologie établis sur le continent, en Belgique, en Allemagne et en Suisse, n’ayant les mêmes potentiels. Seuls deux autres centres pourraient rivaliser au niveau mondial : Nanotec à Albany (État de New York) et Salete, près de Tokyo.



Au-delà d’une certaine taille, il paraît difficile de prévoir quelles seront les évolutions. La miniaturisation des puces a ses limites car des effets inattendus se produisent lorsque l’on réduit la taille des particules de silicium, notamment des transferts d’électron imprévisibles. Pour y remédier, la solution pourrait consister à loger un transistor sur une molécule ! Telle a été en tout cas la prouesse réalisée l’an dernier par l’Institut National de Nanotechnologie, au Canada, où les chercheurs ont montré qu’il était possible de modifier la charge d’un atome sur une surface de silicium, sans affecter la charge des atomes voisins. Par ailleurs, les fondeurs espèrent tirer parti d’une extraordinaire substance, les nanotubes de carbone, pour créer des transistors d’un nouveau type.
Identifié en 1991 par S. Ijima, dans les laboratoires de Nec, le nanotube de carbone représente une percée technologique majeure. Avec l’aspect d’un cylindre 100 000 fois plus fin qu’un cheveu (1 millième de millimètre), il représente une remarquable percée technologique. Ultraléger, il apparaît comme le matériau le plus résistant sur Terre, avec une élasticité hors pair. Sa résistance est cinq fois supérieure à celle des toiles d’araignée, lesquelles permettent pourtant déjà d’arrêter un projectile de 300 kg lancé à 300 km/h ! Comme il s’agit par ailleurs d’un excellent conducteur électrique, la société texane Applied Nanotech entend les utiliser pour le rétro éclairage des écrans plats LCD, ce qui pourrait faire chuter les coûts.


Les ambitions du Foresight Institute
Fondé en 1986 par Éric Drexler afin de promouvoir la nanotechnologie, le Foresight Institute s’est fixé six challenges précis.
1. Répondre aux besoins en énergie de la planète : 1,6 milliard d’individus n’ont pas accès à l’électricité. Or, la demande énergétique devrait être accrue de 50 % d’ici 2025, l’essentiel continuant d’être produit à partir de carburants issus de fossiles. La nanotechnologie va aider à satisfaire de tels besoins avec des solutions propres.
2. Fournir de l’eau propre en abondance au niveau global : l’eau fraîche immédiatement utilisable ne représente que 3 % des réserves mondiales… Pour nourrir 2 milliards d’individus supplémentaires d’ici 2030, il faut augmenter la fourniture d’eau de 60 %. La nanotechnologie va aider à la purifier.
3. Accroître la santé et la longévité de la vie humaine : la nanotechnologie ambitionne la réparation de l’ADN et des dommages cellulaires afin de prolongé santé et longévité.
4. Maximiser la productivité de l’agriculture : 98 % de la croissance en population aura lieu dans les pays les plus pauvres. La nanotechnologie voudrait y répondre par des fermes équipées de nanocapteurs et nanocides…
5. Rendre les technologies de l’information accessibles de partout : 13,9 % de la population mondiale a accès à Internet. Ambition : développer un environnement de communication globale.
6. Faciliter le développement de l’espace : la nanotechnologie devrait faciliter l’exploration et la colonisation de l’espace, où se trouvent un grand nombre des ressources et matériaux nécessaires à l’Humanité.



Dès que l’on s’aventure dans le royaume de la recherche fondamentale, les ambitions laissent rêveurs. Si les structures capables de s’autoréparer sont déjà une réalité, certains évoquent la possibilité pour une substance d’aller puiser ses matériaux dans l’air ambiant : un pont conçu en nanomatériaux pourrait puiser sélectivement des particules disséminées dans le vent. Les « nanofoods » (aliments construits depuis l’atome) ont déjà eu droit à une conférence en juin 2005 à Wageningen en Hollande et leur marché est évalué à 20 milliards de dollars d’ici à 2010.
Le rêve de tous les théoriciens de la nanotechnologie se situe à un niveau plus fondamental encore. Le fameux « nano-assembleur » évoqué par Éric Drexler pourrait être la technologie ultime. Il permettrait l’élaboration de machines invisibles capables d’élaborer des structures par elles-mêmes en partant de l’atome. Une société telle que Zyvex au Texas s’est donnée une telle mission. « Si nous réarrangeons les atomes du charbon, nous pouvons produire du diamant. Si nous réarrangeons les atomes du sable et ajoutons quelques autres micro-éléments, nous pouvons produire des puces d’ordinateur. Si nous réarrangeons les atomes de la poussière, de l’eau et de l’air, nous pouvons fabriquer des pommes de terre », peut-on lire sur le site Web de Zyvex ! À l’Université de Cornell aux États-Unis, le professeur Hod Lipson poursuit un programme qui pourrait amener l’apparition de tels systèmes capables de s’autofabriquer. On nage en pleine science-fiction et pourtant, la chose paraît possible à long terme, même s’il semble difficile d’envisager l’apparition de telles technologies avant plusieurs décennies. Il demeure que la société qui parviendrait à maîtriser le nano-assemblage pourrait devenir le Microsoft du siècle !


Risques à grande échelle

La région grenobloise est riche en expériences évoluant à l’échelle de l’atome. Le Leti (Laboratoire d’électronique de la technologie de l’information) se targue de détenir le record mondial en matière de miniaturisation des transistors individuels (10 nm). De son côté, Soitec avec ses six cents salariés fabrique des substrats avancés pour la microélectronique. Des start-ups telles que Alchimer, Intexys, Tracit ou Ulis opèrent pareillement dans les applications électroniques de la nanotechnologie. Autant dire que Minatec arrive à point nommé pour donner un coup de fouet à la recherche. Pourtant, une telle évolution ne se fait pas sans heurts.
Les percées attendues dans la nanotechnologie soulèvent des risques dépassant tout ce que l’on a pu connaître à ce jour. Le 5 mai, la Royal Society, une académie britannique regroupant des scientifiques de pointe a d’ailleurs demandé aux industriels d’expliquer officiellement comment étaient menés les tests de sécurité sur les nouveaux ordinateurs portables comme sur les vêtements anti-taches.
« Nous faisons appel à l’industrie afin qu’elle mette en place des méthodes permettant d’assurer l’innocuité de ce genre de produits vendus au grand public parce qu’il règne toujours une incertitude quant à la sécurité des gens », a déclaré le professeur Ann Dowling. Les dangers relatifs à la vie privée paraissent tout aussi grands, à tel point que, le 2 juin, un millier de personnes défilaient dans les rues de Grenoble pour réclamer la fermeture de Minatec, dénonçant la perspective d’un « flicage généralisé des individus ». Clairement, l’apparition de tels matériaux intelligents, qui redéfinissent la façon même de concevoir les objets, appelle à l’édification de nouveaux codes et de nouvelles structures de contrôle des entreprises opérant dans ce domaine.


Big Brother à la sauce « nano »
Les opposants à la nanotechnologie s’inquiètent de voir apparaître dans le futur des objets espions indétectables à l’œil nu : micropuces de type RFID émettant des ondes radios, implants sous la peau… Une simple poussière intelligente pourrait enregistrer des conversations à l’insu de ses occupants. Les plus alarmistes imaginent un gouvernement totalitaire qui implanterait dès la naissance une puce sous-cutanée conservant la mémoire des faits et gestes. Ce qui inquiète aussi, au-delà des risques sur la vie privée, c’est la multiplication d’agents invisibles dont on pourrait ignorer le fonctionnement exact. Ainsi, d’ici à 10 ans, la moitié des médicaments pourraient relever des nanotechnologies. Un fabricant pourrait-il programmer l’un d’eux afin de provoquer le rejet d’un article concurrent ? Les scénarios les plus fous deviennent possibles…


p. 2
Réduire
Ce que nous réserve le monde des serveurs
Par Yann Serra - Copyright L'Informaticien, tous droits réservés

Processeurs : le prochain défi est industriel

Processeurs0113756_Copier9.gifLes fondeurs peuvent encore réduire la taille des processeurs pendant quatre ans. Mais après ?…
On doit la trouvaille aux ingénieurs d’IBM : pour que les rayons ultraviolets, d’une longueur d’onde de 193 nm, puissent graver par lithographie des transistors d’une taille inférieure à 45 nm, il suffit de leur faire traverser une goutte d’eau dé-ionisée ! Réduit ainsi à une longueur d’onde de 135 nm, le rayon ultra-violet peut alors dessiner des transistors avec une précision de 32 nm. Si ASML, Canon et Nikon ont immédiatement commencé à plancher sur la fabrication des appareils adéquats, on s’inquiète en revanche d’ores et déjà de savoir comment on fera pour aller au-delà. En effet, l’industrie des semi-conducteurs changeant d’échelle tous les deux ans environ, les usines d’Intel, IBM et consorts fabriqueront en série des processeurs d’une résolution de 32 nm dans à peine quatre ans (65 nm aujourd’hui, 45 nm en 2008). Ensuite, tout semble désormais indiquer qu’il faudra changer radicalement les équipements des usines, ce qui signifie investir au moins le double des 5 milliards de dollars qui servent habituellement à les moderniser. Du point de vue de la gravure elle-même, plusieurs voies existent, mais aucune n’est encore arrêtée. On pense au canon à électrons (mais il rallonge le temps de fabrication), aux rayons X « légers », également appelés ultraviolets « extrêmes » (ils semblent être privilégiés, bien que le moindre appareil qui sache les utiliser coûte 50 millions de dollars l’unité) ou encore à l’auto-assemblage de molécules par réactions chimiques. En la matière, la société Molecular Imprints a largement validé ce procédé inédit qu’elle nomme Step-and-Flash Imprint Lithography (ou « S-FIL »). En l’occurrence, cela revient à un moulage du circuit dans le silicum que l’on durcit ensuite par exposition ultraviolette avec les appareils traditionnels. Trois licences de cette technologies ont déjà été vendues et le CEO de la société inventeur n’est autre que l’ancien CEO de d’ASML, l’un des trois acteurs majeurs de la construction d’appareils pour usines de production de semi-conducteurs. Rappelons que la réduction chronique de la finesse de gravure permet d’améliorer régulièrement les processeurs, autrefois en augmentant leur fréquence et désormais en doublant le nombre de leurs cœurs.


reseaux0113839_Copier10.gifVoici le prototype du modem Ethernet-Optique qu’Intel a mis au point pour démocratiser l’usage de la fibre optique.
Vers des réseaux domestiques à 10 Gbits/s !

Dans les prochaines années, le prix des réseaux en fibre optique risque bien de chuter au point de pouvoir s’installer chez le particulier. On doit cette prouesse à Intel qui dispose désormais dans ses laboratoires d’un modem Ethernet-Optique tenant sur une puce de silicium on ne peut plus traditionnelle et particulièrement peu chère à fabriquer au regard des lourds équipements jusqu’ici utilisés. Cette puce transforme un signal électronique en deux signaux lumineux qui voyagent indépendamment le long du câble. S’ils sont en phase, leur somme vaut 1. S’ils ne le sont pas, elle vaut 0. À l’autre bout du câble, une même puce combine les deux signaux et les transforme à nouveau en une impulsion électrique. La vitesse de cette puce est telle que ce réseau peut véhiculer (pour l’instant) 10 Gbits/s (soit 1 Go/s de données utiles). Néanmoins, les ingénieurs d’Intel visent des débits dix fois plus importants pour accélérer à moindre coût les infrastructures de connexion à Internet.


Niagara II et Rock, les prochains SPARC de Sun

Niagara0114004_Copier11.gifLe processeur Rock se composera de quatre grappes de quatre cœurs chacune.
Alors que son processeur maison, l’UltraSPARC, se laissait distancer allègrement ces derniers temps par les performances de la concurrence, Sun a créé l’événement en décembre dernier avec l’UtraSPARC T1, plus connu sous le nom de code de « Niagara ». Avec 1,2 GHz, l’UltraSPARC T1 n’exécute certes pas plus rapidement les processus que n’importe quel Xeon, Itanium ou Power, mais il en exécute beaucoup plus ! Paré de huit cœurs, chacun capable de traiter quatre threads simultanément, l’UltraSPARC T1 parvient à faire tourner trente-deux processus en même temps et se présente, selon Sun, comme la solution idéale pour bâtir les serveurs Web les plus réactifs. Air France et eBay, entre autres, l’ont déjà adopté. Fort de ce succès, Sun planche déjà sur la suite. Celle-ci s’incarnera tout d’abord en un Niagara II. Prévu pour 2007, ce processeur verra sa finesse de gravure passer de 90 à 65 nm, pour intégrer cette fois-ci seize cœurs et exécuter soixante-quatre processus en même temps. Tout comme son prédécesseur, il disposera d’un cache L2 unifié et d’un contrôleur mémoire pour deux cœurs (soit huit en tout). Par ailleurs, il supportera de fonctionner en environnement multiprocesseur (ce qui fait défaut à l’actuel Niagara). Sun prévoit ainsi de sortir en 2007 un serveur « blade » doté de deux Niagara II et capable d’exécuter cent vingt-huit processus simultanément. Il faudra ensuite attendre 2009 pour voir débarquer  le Niagara III, lequel doublera encore le nombre de cœurs embarqués (trente-deux, donc, pour un total de cent vingt-huit threads) grâce à une finesse de gravure de 45 nm. À titre de comparaison, Intel et AMD devraient disposer à ce moment-là de puces à huit cœurs mono-threads – huit processus en même temps. D’ici là, Sun entend également rattraper son retard sur la rapidité d’exécution, grâce à « Rock ». Prévu pour 2008, cet énième UltraSPARC disposera également de plusieurs cœurs gravés en 65 nm, mais pas en parallèle ! Ses seize cœurs (individuellement capables d’exécuter deux threads simultanément, soit trente-deux en tout) devraient en effet être disposés en quatre grappes de quatre cœurs, chaque grappe ne disposant que d’un seul cache L1 de 64 ko à partager entre tous ses cœurs. Au centre du circuit se trouvera un bus « crossbar » qui reliera dynamiquement les quatre grappes à quatre caches L2 de 512 ko chacun. Cette architecture exotique devrait permettre à Rock de supporter des fréquences record.


Demain, un Linux « Java-isé » ?

Le prochain environnement de travail des Unix sera-t-il motorisé par Gnome (GTK) ou KDE (QT) ? Selon Richard Green, le vice-président du logiciel chez Sun, il se pourrait bien qu’il soit motorisé par Java ! Sun vient en effet d’accepter officiellement la mise en Open Source de sa plate-forme logicielle. Si on ne sait pas encore quand elle prendra effet, on sait en revanche que le constructeur incitera désormais les éditeurs de distributions Linux à fournir leur OS avec un Java complet, sans avoir à payer quelque licence que ce soit, ni à obliger l’utilisateur à s’enregistrer quelque part. Le but est que Java s’impose comme l’interface logicielle entre l’utilisateur et Linux (puis tous les autres Unix, Linux faisant désormais office de leader d’opinion en ce qui concerne les environnements de travail). Reste à savoir s’il s’agit ou non d’un doux rêve.


eCLipz, IBM planche sur le microprocesseur universel

eclipz0114171_Copier13.gifCi-dessus: le module processeur des mainframes zSeries intégrera bientôt aussi des cœurs PowerPC.
Ci-dessous : la version autonome du Power6, avec ses deux cœurs cadencés entre 4 et 6 GHz, ainsi que ses caches séparés de 6 Mo chacun.
eclipz0214173_Copier14.gif
En 2007 sortira le Power6, la nouvelle incarnation du PowerPC qui succédera au Power5 dans les mini iSeries et les serveurs pSeries d’IBM… et – surprise – qui équipera également les mainframes zSeries ! Dans un soucis d’économie d’échelle, IBM souhaite en effet recentrer toutes ses architectures de processeur sur un design unique. Problème, si les PowerPC sont bien des microprocesseurs autonomes, il n’en va pas de même des six puces zArch que l’on trouve aujourd’hui sur le module processeur d’un zSeries, lequel totalise douze composants (outre les zArch, on trouve deux chipsets I/O, quatre caches L2, deux contrôleurs mémoire, un contrôleur de disque et un contrôleur de timing). En ce moment, IBM revoit donc intégralement l’architecture du PowerPC pour en faire un processeur encore plus versatile. Ce programme, nommé eCLipz (pour « ehanced Core Logic for iSeries, pSeries and zSeries »), consiste à construire tous les prochains PowerPC à partir d’un circuit plus simple, lequel sacrifiera entre autres les capacités de traitement désordonné des instructions. Mais pour la bonne cause : le Power6, premier PowerPC de la génération eCLipz, commencera sa carrière à 4,4 GHz et devrait atteindre jusqu’à 6 GHz à la fin 2008 (sa finesse de gravure sera de 65 nm). Un record puisque les x86 d’Intel (Xeon, Pentium) devraient à peine dépasser les 3 GHz durant la même période et que le concurrent direct sur le marché des gros serveurs, l’Intel Itanium, ne devrait même pas les atteindre ! En pratique, le Power6 se composera de deux cœurs 64 bits capables d’exécuter chacun deux processus (soit quatre au total). Chaque cœur disposera de l’unité vectorielle VMX typique des PowerPC, précédemment conçus pour les applications multimédias. Ceci témoigne de l’amplitude des marchés auxquels s’adressera ce processeur. On se souvient en effet qu’après avoir multiplié pendant des années les ramifications du PowerPC (les « Power » pour les pSeries, les « RS64 » pour les iSeries, les « PowerPC » pour les appareils personnels), IBM a réussi à décliner un design unique, celui du Power5, sur une variété particulièrement hétéroclite de machines, allant de la console de salon au supercalculateur le plus puissant du monde, en passant par le serveur d’applications et le NAS. Outre un cache L1 de 64 ko, chaque cœur du Power6 disposera de son propre cache L2 de 6 Mo (soit 12 Mo au total). On pourrait s’étonner de la séparation des deux caches, dont on sait qu’elle pénalise la communication entre les deux cœurs (AMD fait de même et, pour l’heure, seul Intel a conçu ses prochains Pentium « Core Architecture » avec un cache unifié). Le problème est cependant relatif, au sens où le Power6 intégrera un contrôleur de mémoire cache L3, ce qui signifie que les échanges entre les cœurs se feront effectivement au sein d’une mémoire externe, mais à haute vitesse. Enfin, le Power6 se verra également équipé du dispositif ViVA-2, lequel permet de faire fonctionner plusieurs Power6 en parallèle comme un seul gros processeur vectoriel.


Mac OS X Server 10.5 sortira avant Windows Vista

macosx0114256_Copier15.gifDes serveurs Xserve à base de Xeon Woodcrest devraient accompagner la sortie de Mac OS X Server 10.5, au début 2007.
Révélée cet été par Apple lors de sa conférence développeur semestrielle, la prochaine version 10.5 de Mac OS X, dite « Leopard », devrait arriver dans les bacs pour la fin de l’année, voire en janvier 2007. Quelques semaines avant un certain Windows Vista qui n’en finit plus d’être en retard… Paradoxalement, si tout a déjà été dit sur le futur système de Microsoft, le plus grand secret entoure la prochaine mouture de Mac OS X. Parmi les quelques informations qu’Apple a bien voulu laisser filtrer, on note un système dit de « résolution indépendante » qui permettra de zoomer à l’envi sur toutes les pages Web. Également attendu, puisque déjà distribué en version bêta, l’outil Boot Camp permettra de faire cohabiter Windows et Mac OS X (client ou serveur) sur la même machine. Même si cette fonction n’apparaît pas tout de suite, il est entendu que les applications Windows devraient pouvoir se lancer depuis Mac OS X en passant par une machine virtuelle (à l’instar de Mac OS « Classic » sur Mac OS X PowerPC). Sont également annoncés le support du système de fichiers ZFS de Sun (virtuel et auto-réparable) et la navigation de fichiers par méta-données à la façon d’iTunes. La sortie de la version Server de ce système s’accompagnera en toute logique, au début 2007, de matériel Xserve basé sur les nouveaux Xeon « Woodcrest » d’Intel à double cœur, voire, fin 2007, sur les Xeon « Clovertown » équipés de quatre cœurs.


Olympus et Jupiter, Fujitsu toujours sur les rangs du SPARC

Tout comme Sun, Fujitsu développe ses propres processeurs à partir du modèle SPARC pour construire des serveurs. Longtemps attendu, son SPARC VI – alias « Olympus » – verra enfin le jour à la fin de cette année, avec deux cœurs dual-thread (soit quatre processus traités simultanément) à 2,4 GHz. Ce modèle sera rapidement remplacé en 2007 par le SPARC VI+, dit « Jupiter », tournant à 2,7 GHz et équipé de quatre cœurs dual-thread (soit huit processus traités simultanément). Le support de fréquences plus élevées que celles de l’UltraSPARC IV+ (qui culmine à 1,8 GHz) devrait inciter Sun à adopter les SPARC VI et VI+ de Fujitsu dans ses propres machines de milieu et de haut de gammes à partir de 2007, en attendant l’arrivée de Rock.


GCC 4.2 supportera OpenMP
GCC, le compilateur vedette des logiciels libres, ne souffre que d’un problème : il ne supporte pas OpenMP, l’API industrielle pour paralléliser les processus d’un programme. Ce manque est d’autant plus handicapant que la déferlante récente des processeurs à double cœur incite les professionnels à recompiler leurs outils pour tirer parti des exécutions simultanées. Et il est hors de question de se satisfaire des pThreads (technique alternative de GCC) sous peine de perdre la portabilité de son code. Eh bien, que l’on se rassure, l’équipe de GCC planche sur le problème et promet l’intégration d’OpenMP dès la version 4.2 de son produit, prévue d’ici à 2007.




Le Wi-Fi 802.11n pas avant l’été 2007

Le premier vote sur les caractéristiques du Wi-Fi 802.11n vient tout juste d’avoir lieu au sein du groupe de travail que le consortium de standardisation IEEE a délégué sur le sujet. Au programme, on nous promet un débit de 540 Mbits/s (contre 54 Mbits/s pour l’actuel 802.11g) avec une rétro-compatibilité des normes Wi-Fi existantes. Si tout se passe bien, la norme devrait être validée à l’été 2007, au moment où Intel aura mis au point les contrôleurs adéquats pour les cartes mères PC et les routeurs sans fil. Au passage, ces puces devraient également intégrer le contrôle des signaux UWB (successeur du BlueTooth), G3 (téléphonie haut débit) et Wi-Max (pour les accès Internet sans fil). En attendant, certains constructeurs de routeurs sans-fil présentent d’ores et déjà des produits estampillés « pré-802.11n », mais ils exploitent une technologie propriétaire (souvent de 2 x 300 Mbits) et rien ne garantit leur compatibilité avec le standard 802.11n final.

 
Les semi-conducteurs transparents vont se démocratiser

Wifi0114745_Copier16.gifBroadcom fabrique d’ores et déjà des contrôleurs 802.11n, mais ceux-ci ne sont pas encore standardisés.
Les scientifiques étaient déjà parvenus à fabriquer des transistors transparents pour, par exemple, afficher des images sur une fenêtre. Mais les chercheurs de l’université de l’Oregon aux États-Unis sont allés plus loin en remplaçant les actuels matériaux organiques – chers à produire – par un alliage oxydé de gallium et d’indium inorganique bien plus économique, car ne nécessitant pas de températures extrêmement basses pour être fabriqué. Cette invention, qui promet de démocratiser le principe, bénéficiera bientôt – et en premier lieu – au monde de l’automobile. Elle permettra ainsi d’intégrer un écran dans le pare-brise du véhicule pour, typiquement, afficher les informations graphiques d’un GPS en surexposition de la véritable route. On imagine également incorporer des batteries solaires dans la peinture de la carrosserie, voire utiliser cette carrosserie comme un écran, c’est-à-dire changer la couleur d’une voiture d’un clic de comodo.


Vers l’immersion virtuelle haute résolution

immersion0114915_Copier7.gifLes Reality centers n’étaient qu’une première étape.
Qu’on se le dise : le marché de l’immersion virtuelle va exploser. Pour mémoire, il s’agit d’afficher des pixels sur toute la surface murale d’une pièce, plafond et plancher compris, pour voir une maquette de synthèse de l’intérieur. Pour l’heure testé dans les centres de recherches génétique et militaire, ce procédé devrait rapidement s’imposer chez les industriels qui utilisent déjà des reality center (la même chose, mais sur un seul mur), à savoir les constructeurs automobiles, les avionneurs et même les architectes immobiliers. Le dernier progrès en date est la « Room C6 » de l’université de l’Iowa (États-Unis), laquelle affiche 100 millions de pixels sur la surface interne d’un cube de trois mètres de côté. Projetée de l’extérieur par vingt-quatre appareils Sony, l’image est calculée en temps réel par un serveur HP contenant 96 puces graphiques. L’ordinateur utilise par ailleurs un détecteur ultrasonique pour faire tourner l’univers virtuel au fur et à mesure que l’utilisateur tourne la tête et emploie un système audio 3D pour une restitution sonore des plus réalistes.


Dissipation thermique : une pâte adhésive trois fois plus conductrice

dissipation0114919_Copier6.gifUn tapis de nanotubes pour refroidir trois fois mieux un processeur.
Des chercheurs de l’université de Purdue (États-Unis) ont mis au point une pâte adhésive, à base de nanotubes de carbone, capable de transférer trois fois plus vite la chaleur émise par un processeur vers le radiateur collé dessus. Dans la pratique, il s’agira de refroidir plus efficacement les CPU des machines, soit pour des raisons de stabilité accrues (serveurs lames), soit pour augmenter leur fréquence en toute sécurité. Le génie de cette invention tient dans le fait que les nanotubes offrent très peu de résistance au transport de la température, qu’ils sont ici assemblés comme un tapis qui agit comme du velcro sur les surfaces entre lesquelles on le pose. Les nanotubes qui composent ce tapis ont un diamètre qui varie entre 1 et 100 nm.
p. 3
Réduire
Le futur des périphériques
Par Henri Gillarès-Calliat - Copyright L'Informaticien, tous droits réservés

Des écrans toujours plus grands

stockage0116454_Copier17.gifÀ la recherche du plus petit grain de mémoire.
Epson travaille sur une technologie d’écran OLED (Organic Light-Emitting Diode) de 40” de diagonale. Cet écran OLED a été fabriqué à partir de quatre écrans LCD de 20” polysilicium basse température, assemblés en utilisant une technologie d’impression à jet d’encre propre à Epson. Pour parvenir au résultat escompté, les ingénieurs de la firme japonaise ont utilisé la technologie à jet d’encre pour déposer des couches de polymères organiques sur des substrats TFT, opération finalement relativement simple dans son principe. La firme nippone envisage la commercialisation de ses produits OLED à base de polymères dès 2007, avec, entre autres, une télévision de 40” dans sa future gamme.
De son côté, Panasonic a développé un mur TV Interactif avec un écran tactile possédant la superficie de deux télévisions de 110”. Sur ce mur vous pouvez non seulement regarder la télévision, mais aussi surfer sur Internet ou lire vos e-mails, écouter de la musique, voire même regarder sur un grand écran qui sonne à la porte… Mais aussi jouer avec ce dernier : eh oui, l’écran étant tactile, il est donc tout à fait possible pour vous de jouer au squash ou même du piano sur cet écran.
Une filiale de Samsung spécialisée dans l’affichage, Samsung SDI, développe un écran de 30” de diagonale qui utilise des nanotubes de carbone. Cet écran, qui emploie la technologie FED (Field Emission Display), a la propriété d’être lui-même émetteur de lumière et d’offrir par conséquent un angle de vision et un contraste bien supérieurs à ceux d’un écran à cristaux liquides. En réalité, la technologie FED est en cours de développement depuis plusieurs années déjà, mais elle était basée jusque-là sur un réseau d’émetteurs d’électrons, très difficiles à fabriquer et à faire fonctionner. La possibilité d’utiliser des nanotubes de carbone comme source d’électrons a donc permis de relancer le développement de la technologie FED.


5 To sur un timbre

Des chercheurs de l’université de Caroline du Nord sont parvenus à enregistrer un 0 ou un 1 sur une bille de 5 nanomètres de diamètre, composée de quelques centaines d’atomes de nickel. Selon eux, leur invention permettrait de stocker plus de 5 To de données sur une surface équivalente à celle d’un timbre poste. On ne sait en revanche pas combien d’années il faudra attendre pour qu’ils parviennent à développer le lecteur qui va avec.


Stockage de données en 3D

La société Optoware a réalisé la démonstration de sa technologie HVD (Holographic Versatile Disc) qui concentre 1 tera-octet de données sur un disque de 12 centimètres de diamètre pour une vitesse de transfert atteignant jusqu’à 1 giga-octet par seconde. Optoware envisage de commercialiser les premiers produits HVD 1 To à partir de 2007. De telles capacités deviennent possibles grâce à une stratégie de stockage en trois dimensions, c’est-à-dire qui utilise l’épaisseur du disque en plus de la surface pour mémoriser les données. La capacité totale passe de 9 giga-octets aujourd’hui pour les DVD double couche à 1 tera-octet.


La lumière fait bonne impression

Une des tendances actuelles pour les systèmes d’impression professionnels est au passage à la technologie DOD, avec des têtes plus larges (prototype avec des têtes de la largeur d’une page A4) nécessitant de moins en moins de maintenance et surtout compatibles avec différents types d’encres. Des têtes utilisant des encres à solvant et pigmentées sont déjà disponibles, il reste à les rendre compatibles avec des encres à l’eau et UV. La recherche porte également sur l’étude des phénomènes de « banding ».
Le principe est assez simple. Si un écran émet de la lumière, et consomme donc de l'électricité (sur batteries ou non), un papier électronique réfléchit la lumière ambiante et ne consomme de l’énergie que si on change ce qu’on y affiche. L’encre électronique est formée de microbilles contenant des pigments noirs ou blancs, flottant dans un liquide, contenu dans une feuille en plastique. Ces particules chargées en électricité peuvent être orientées soit vers la surface du « papier » (elles noircissent alors le « papier ») soit vers le centre de la feuille. C’est ainsi qu’on peut écrire n’importe quel caractère ou image. On pourrait ainsi disposer d’un véritable livre « blanc » (« vierge »), sur lequel on pourrait lire n’importe quel livre, pour peu qu’il soit en mémoire. On pourrait aussi imaginer lire son quotidien préféré, automatiquement mis à jour sans avoir besoin de passer par son kiosque. L’encre électronique, constitue la synthèse ultime entre le papier, le livre ou le journal traditionnel et l’écran d’ordinateur.


La cryptographie quantique en démonstration en Grande-Bretagne

La cryptographie quantique est entrée dans une phase active. Réalisées au moyen de technologies développées par la firme britannique QinetiQ, Toshiba Cambridge et la firme américaine MagiQ, les premières démonstrations se sont appuyées sur de la cryptographie quantique via des fibres optiques et par voies hertziennes. La cryptographie quantique s’appuie sur la transmission de données sous forme de photons. Les photons sont polarisés, ou orientés, dans différentes directions. Bien que MagiQ Technologies présente ses produits comme relativement « abordables », le système phare de MagiQ, le MagiQ QPN, est tout de même vendu quelque 70 000 dollars. Toutefois, on peut légitimement se demander si le surcoût d’une solution cryptographique quantique se justifie pleinement.



Bientôt une seule identité pour toutes les communications en ligne
Aujourd’hui, il existe quantité de moyens d’être contacté sur Internet : e-mail, messagerie instantanée, voix sur IP… Problème, à chaque protocole correspond une adresse différente ! Eh bien, la situation pourrait bien se simplifier dans les prochaines années grâce aux protocoles ENUM et NAPTR, que met actuellement en chantier l’Internet Engineering Task Force (IETF), l’organisme officiel chargé de développer les standards d’Internet. ENUM se propose d’identifier chaque particulier grâce à une adresse qui correspond à son numéro de téléphone unique, mis à l’envers, avec tous les chiffres séparés par un point, et terminé par « e164.arpa » (« e164 » correspondant au standard de la numérotation téléphonique traditionnelle et « arpa » au nom original d’Internet, « Arpanet »). Par conséquent, si votre numéro de téléphone est +33.6.61.23.45.67, alors il sera codé en tant que « 7.6.5.4.3.2.1.6.6.3.3.e164.arpa ». Ensuite, on suppose que chaque utilisateur disposera d’une sorte de « navigateur de communication » (peut-être une évolution du navigateur Web) qui reconnaîtra les protocoles de communication à la manière de « sip:// », « sms:// », « msn:// », etc. Pour vous appeler avec le protocole SIP de voix sur IP, il faudra que votre correspondant saisisse l’adresse « sip://7.6.5.4.3.2.1.6.6.3.3.e164.arpa » et pour dialoguer par MSN, ce sera « msn://7.6.5.4.3.2.1.6.6.3.3.e164.arpa ». Mais ce n’est pas tout. Ces adresses étant aussi compliquées à retenir qu’une adresse IP, on songe à les encoder sous une forme plus littéraire et à faire la correspondance grâce à des DNS qui reconnaîtraient les enregistrements NAPTR. L’adresse deviendrait ainsi « 765432.operateur.fr », voire « 765.societe.operateur.fr », voire encore « monnom.societe.operateur.fr ». A partir de là, il deviendra trivial de créer un annuaire mondial compatible avec tous les protocoles de communication, voire un moteur de recherche dédié aux coordonnées personnelles. Il existe même un projet de recherche d’adresses personnelles par Peer-2-peer (les participants partagent leur carnet d’adresses) qui se nomme DUNDi et que l’on trouve pour l’heure dans Asterisk (un commutateur téléphonique logiciel et Open Source qui offre des fonctions de standard, de répondeur, de file d’attente, etc.). Évidemment, encore faut-il que chacun possède un numéro de téléphone unique. Si vous n’en possédez pas, il est d’ores et déjà possible de s’en faire attribuer un gratuitement en s’inscrivant sur le site http://www.e164.org. Ce numéro ne servira que de référence et ne correspondra à aucune ligne existante. Le protocole ENUM étant toujours en cours d’élaboration, on ne sait pas encore quand son usage deviendra courant.


Sécurité
Réduire
Protégez votre réseau des attaques extérieures
Par Yann Serra - Copyright L'Informaticien, tous droits réservés

Reseau016923_Copier5.gifVotre réseau est-il bien protégé ?
Disons-le une bonne fois pour toute : la sécurité n’est pas un produit qu’il suffit d’acheter, c’est une discipline qui s’exerce. Le plus puissant des pare-feu – ou firewall, en anglais – n’empêchera pas un pirate de naviguer sur votre réseau si celui-ci est mal configuré.  

La sécurité de votre réseau commence dès la passerelle, l’unité qui fait la jonction entre Internet et votre réseau local. Celle-ci ne doit surtout pas (c’est à souligner !) être un ordinateur de travail, mis là pour « partager la connexion Internet ». Puisqu’elle dispose d’une adresse IP publique, la machine qui fait office de passerelle est directement accessible d’Internet et, en conséquence, figure la proie idéale de tous les maux qui peuvent y circuler. Cette mise en garde ne s’adresse pas aux possesseurs de « box » ADSL récentes (Freebox, Livebox, Neufbox…), car ces appareils intègrent dans le même boîtier un modem et une passerelle autonome ; mais elle s’adresse aux utilisateurs de modems USB, voire de modems Ethernet doublés d’un kit de connexion en PPPoE livré sur CD-Rom (le bon réflexe consistant à toujours jeter les kits de connexion sur CD-Rom à la poubelle avant même de les ouvrir), ainsi qu’à ceux qui disposent d’une connexion haut débit via le câble ou via un modem professionnel, sans routeur Ethernet ni Wi-Fi supplémentaire. Au passage, un utilisateur de modem USB, ou Ethernet en PPPoE, est de loin le plus mal loti. D’une part, en plus de tous les documents qu’il contient, l’ordinateur qui assure la mise en route du modem est également susceptible de se faire voler sa connexion Internet, puisque l’identifiant et le mot de passe associés, sont stockés sur son disque dur. D’autre part, un PC qui se connecte en PPPoE à un fournisseur d’accès ne partage pas correctement sa connexion avec les autres machines de son réseau privé. En effet, le PPPoE tronque la taille usuelle des paquets (la MTU, laquelle correspond le plus souvent à 1 500 octets), ce qui aura pour conséquence que les machines de votre réseau chargeront indéfiniment certaines pages Web, sans jamais en voir le bout.


L’ordinateur qui partage sa connexion est en danger

Pour saisir tout le danger que représente un ordinateur directement relié à Internet par une adresse publique, prenons un exemple. Imaginons que votre fournisseur d’accès vous ait attribué l’adresse IP publique 80.123.45.67 (au hasard). Un pirate va pouvoir, de chez lui, regarder ce qui se cache derrière votre adresse IP grâce à la commande Nmap (depuis le Shell de votre OS) :

sudo nmap -sV -O 80.123.45.67


Cette commande va renseigner le pirate sur la version du système d’exploitation que vous utilisez, ainsi que sur celle de vos logiciels (en cours de fonctionnement) qui obéissent aux requêtes venues d’Internet (c’est-à-dire les applications serveur). Fort de ces informations, notre « malfaisant » n’a plus qu’à chercher sur le Web la liste des failles connues sur votre configuration et à en utiliser une pour vous attaquer. La tâche n’est pas très compliquée : il de se rendre sur http://msgs.securepoint.com/bugtraq/ (ou http://www.securiteam.com/exploits/), d’entrer des éléments qui correspondent à votre configuration dans la cellule de recherche et de consulter les réponses trouvées, lesquelles exposent généralement comment réaliser l’attaque.


Comment fonctionne un réseau IP ?
Le principe d’un réseau IP est aussi bien celui d’Internet que celui de la plupart des réseaux privés actuels (c’est un fait, IPX, AppleShare et autres NetBEUI ont vécu). Ici, chaque machine du réseau est identifiée par une adresse IP unique (quatre nombres compris entre 0 et 255), les informations y circulent fragmentées par petits paquets (contenant les données utiles précédées d’un en-tête pour s’identifier) et les applications (e-mail, Web…) reposent sur le schéma client-serveur (le client étant celui qui demande des informations et le serveur celui qui les lui donne). Ajoutons à cela la notion de ports. Un port est un sous-ensemble de l’adresse IP. Numéroté entre 0 et 65 535, il correspond à une application en cours de fonctionnement sur la machine indiquée par l’adresse IP. Le port peut être soit aléatoire lorsqu’il identifie une application cliente (entre 32 768 et 65 535), soit normalisé lorsqu’il correspond à une application serveur (inférieur à 32 767, il existe dans ce cas une numérotation officielle). Quatre nombres compris entre 0 et 255, cela correspond à plus de quatre milliards d’adresses IP possibles, ce qui reste malgré tout limité pour connecter ensemble tous les ordinateurs de la planète sur Internet. Aussi, on seconde le réseau public (Internet) de réseaux privés (typiquement votre réseau local), la jonction entre les deux se faisant par une passerelle. La passerelle, c’est-à-dire le premier appareil connecté à votre modem, assure la circulation des informations entre la seule adresse IP publique que vous octroie votre fournisseur d’accès à Internet et les postes de votre réseau privé dont les adresses IP commencent toujours soit par « 10. » (par exemple « 10.123.45.67 »), soit par « 192.168. » (par exemple « 192.168.123.45 »). Du point de vue d’Internet, toutes les adresses IP d’un réseau privé sont invisibles, on ne connaît que l’adresse IP publique de la passerelle. Internet peut néanmoins dialoguer avec les applications du réseau privé en passant par les ports que référence la passerelle.




Le pire des cas est celui d’un ordinateur qui partage des dossiers pour l’échange de fichiers avec les autres membres du réseau, typiquement le répertoire « Mes documents » grâce à la fonction idoine de Windows 2000 ou XP (ce que Nmap dévoilera en affichant une réponse du style « 445/tcp open microsoft-ds »). Eh bien, ces ressources sont à la disposition de tout utilisateur sur Internet ! Pour un pirate qui agit à partir d’une machine Unix (dans la plupart des cas Linux ou Mac OS X) à l’autre bout du monde, il suffit de saisir la commande suivante pour connaître tous les partages existant sur l’ordinateur de la victime :

smbclient -L  80.123.45.67


Cette commande affichera le nom de domaine Windows ainsi que le nom des ressources partagées sur la machine cible. Fort de ces informations, le pirate peut, par exemple, directement manipuler les documents du répertoire partagé en pointant son navigateur de fichiers graphique sur l’adresse :

smb://nom_du_domaine@80.123.45.67/     "
    nom_du_partage


Outre le fait de pouvoir voler ou effacer toutes les données qui s’y trouvent, notre pirate aura vraisemblablement l’idée d’enregistrer dans ce répertoire un programme de son crû qui lui enverra par mail toutes les données dignes d’intérêt qui logent ailleurs sur votre disque dur. Certes, encore faut-il qu’un utilisateur double-clique sur ce programme (on appelle celui-ci un « trojan » et si le pirate est « suffisamment nul » pour ne pas savoir en programmer un lui-même, il pourra toujours en récupérer un sur le Web, en recherchant « trojan source code » dans Google). Mais il suffit de lui donner un nom assez attractif pour que cela arrive, comme « topsecret » ou encore « vanessa-nue » (avec, respectivement, l’icône d’un document Word et celle d’un fichier JPeg…).

Mais peut-être pensez-vous qu’il faudrait un hasard extraordinaire pour qu’un pirate aille justement s’intéresser à votre adresse IP parmi les quatre milliards possibles ? Détrompez-vous ! Il lui suffit de traiter des plages entières d’adresses et de ne retenir que celles dignes d’intérêt. La commande qui suit scannera par exemple automatiquement toutes les adresses IP qu’un prestataire, Numericâble, au hasard, loue à ses clients (la liste au format texte de toutes les plages d’adresses IP de tous les fournisseurs d’accès européens peut se télécharger depuis ftp://ftp.ripe.net/pub/stats/ripencc/membership/alloclist.txt  ) :

sudo nmap -sV -O ‘80.236.0-127.    "
    *’ ‘81.220.*.*’ ‘82.216.*.*’


Cela dit, ne vous amusez surtout pas à lancer cette commande, elle bloquerait votre bande passante pendant plusieurs mois (tapez Ctrl-C pour l’arrêter) ! Vous risqueriez également de vous exposer à des poursuites, non pas que l’observation de ports sur adresses IP soit interdite, mais vous figureriez au premier rang des suspects si un piratage survenait sur l’une des machines que vous auriez scannée (qu’il soit sous Windows ou système Unix, l’ordinateur cible notifie tous les phénomènes venus d’Internet dans ses fichiers de log).



Que sont les ports ouverts, inactifs,fermés, filtrés, bloqués, sortants ?
Un port ouvert signifie qu’une application serveur est à l’écoute de toute requête qui pourrait arriver dessus. Si aucune application n’écoute un port en particulier, celui-ci est inactif et toute donnée qui lui sera adressée sera détruite. Sur un routeur, les ports fixes des serveurs (entre 1 et 32 767) ne peuvent s’ouvrir que manuellement. Seules les requêtes des applications clientes peuvent ouvrir furtivement des ports sur un routeur (entre 32 768 et 65 535, aléatoirement choisis par le routeur). On peut demander au routeur de signaler que le port est inactif (on dit alors qu’il est fermé) ou de ne rien signaler du tout (on dit alors qu’il est filtré). Filtrer un port inactif sert à ralentir le scan d’un pirate, puisque celui-ci devra procéder à plusieurs tentatives (la connexion est-elle juste mauvaise ?) avant d’avoir la conviction que le port est fermé. On peut également filtrer les ports ouverts pour ralentir un scan en mode rapide (juste composé de commandes ping) et empêcher une attaque de type déni de service (DoS) sur notre adresse IP publique. Sur un PC, tous les ports peuvent s’ouvrir automatiquement à la demande d’une application. Pour empêcher que cela se produise, on peut utiliser un firewall logiciel (« personnel ») sur la machine afin de bloquer manuellement des ports. Mais cela n’apporte rien de plus contre les infiltrations venues d’Internet si un routeur fait déjà barrage. Le port sortant est celui qu’une requête spécifie à l’attention d’une adresse IP publique. Certains firewall (les routeurs des « box » ADSL autres que la LiveBox, l’AirPort d’Apple, le firewall personnel de Windows XP, etc.) ne savent pas les bloquer.




Le routeur est un firewall

Reseau057956_Copier7.gifUn routeur et un proxy assurent sont le meilleur bouclier de votre réseau contre les attaques externes.
Pour que tout cela n’arrive pas, il est donc impératif de placer entre le modem et votre réseau privé (ou même entre le modem et le seul ordinateur que vous souhaitez relier à Internet) une passerelle autonome, c’est-à-dire un routeur. Il existe quantité de routeurs matériels sur le marché et la plupart s’accompagnent de fonctions annexes : borne Wi-Fi, commutateur Ethernet (ou switch, en anglais), serveur d’impression… À vous de choisir celui qui correspond le mieux à vos besoins, sachant que, comme nous le disions, les « box » ADSL actuelles intègrent déjà un routeur dans leur boîtier.  
De par sa position dans le réseau, le routeur est le firewall. Tout du moins, le firewall principal. Il reçoit d’une machine appartenant au réseau privé un paquet dont l’en-tête comprend plusieurs informations. Il y a l’adresse IP (privée) de la machine émettrice, le port (valeur ici aléatoire) qui identifie la session du logiciel qui émet la requête (par exemple l’une des fenêtres d’un navigateur Web), l’adresse IP (sur Internet) de la machine à qui est envoyée la requête et le port qui identifie sur celle-ci l’application serveur à qui l’on s’adresse (par exemple 80 pour un serveur Web ; il s’agit ici d’une numérotation standardisée, voir http://www.iana.org/
assignments/port-numbers ). Le routeur enregistre dans sa mémoire l’adresse IP et le port émetteur, puis les efface de l’en-tête du paquet. À la place, il inscrit l’adresse IP publique de votre connexion Internet (qui revient donc à l’adresse IP publique de votre routeur/passerelle) et un numéro de port aléatoire qu’il enregistre également dans sa mémoire. Puis, il envoie le paquet sur Internet. Lorsque la réponse revient, celle-ci comprend donc dans son en-tête l’adresse IP et le port de l’expéditeur sur Internet, l’adresse IP publique de destination (donc celle de votre connexion) et le fameux port aléatoire généré par votre routeur. Grâce à ce dernier, le routeur retrouve dans sa mémoire l’adresse IP et le port de la machine interne qui avait initialement effectué la requête ; il remplace donc ces valeurs dans le paquet et expédie ce dernier sur le réseau local. Si, d’aventure, un pirate vous envoie un paquet avec un numéro de port qui ne correspond à rien dans la mémoire du routeur, alors ce dernier détruit purement et simplement le paquet, sans le faire circuler sur votre réseau interne et, dans la plupart des configurations par défaut, sans même envoyer d’accusé de réception à l’expéditeur (depuis Nmap, ce port est noté « filtré »). Vous êtes donc protégé et certainement désormais convaincu de l’utilité de ne relier une machine à Internet que derrière un routeur.  


Le routeur-firewall impuissant

Reseau068300_Copier8.gifÀ partir du moment où l’on possède un routeur et un proxy correctement configurés, le firewall logiciel à installer sur chaque poste client n’a plus vraiment d’intérêt.
En pratique, vous pouvez vous-mêmes héberger un serveur sur votre réseau local et vouloir que celui-ci soit accessible d’Internet. Pour ce faire, il suffit de forcer votre routeur à transférer les requêtes reçues sur tel port vers telle adresse IP privée (en gardant le même port de destination). Cela s’appelle « ouvrir un port », tous les ports du routeur étant inactifs par défaut, au contraire de ce qui se passe sur un ordinateur de travail, dont la richesse des fonctions incite le système d’exploitation à ouvrir des ports sans même prévenir l’utilisateur. La configuration d’un routeur s’opère généralement au moyen d’une page Web propre à l’appareil et à laquelle on accède en saisissant l’adresse IP privée de la passerelle sur un navigateur. Le routeur peut vous demander d’entrer un identifiant et un mot de passe, lesquels sont très souvent "admin" et ’admin". Vous pouvez changer ces derniers bien que, l’interface de configuration n’étant accessible que sur l’adresse IP privée (c’est-à-dire pas depuis Internet), il n’y a aucune urgence à le faire.
À ce stade, tous les serveurs auxquels votre passerelle donnera accès seront identifiés comme les portes d’entrée de votre réseau à partir d’Internet par la commande Nmap que nous avons vue plus haut. Il vous appartient donc de sécuriser l’accès à chacun de ces serveurs directement dans leurs fichiers de configuration, c’est-à-dire sur les machines qui les hébergent et non sur la passerelle. On pense notamment à un identifiant et un mot de passe pour tout ce qui a trait à l’écriture ou la modification des répertoires contenant les fichiers que vos serveurs délivrent (FTP, CIFS/Samba, NFS, etc.), voire pour leur usage (si vous disposez de votre propre serveur d’e-mail, par exemple, lequel pourrait servir à l’envoi anonyme de virus par un pirate). Si vous ne le faites pas, aucun firewall ou antivirus ne pourra vous protéger.
Le cas d’un serveur Web est encore plus complexe car il suppose des verrous de sécurité à la fois au niveau de sa configuration, des éléments qu’il délivre et des requêtes qu’il interprète. Comme il n’est de toute façon pas recommandé d’offrir un service Web public à partir d’un réseau de travail (pour un souci de bande passante), nous traiterons la sécurité du serveur Web dans un article ultérieur.


Le P2P, fléau de votre réseau
En plus du rapatriement possible de virus, le peer-2-peer est une vraie plaie pour au moins deux raisons supplémentaires. D’une part, ce genre d’applications consomme énormément de bande passante à des fins qui sortent souvent du cadre professionnel. D’autre part, force est de constater que nombre de ses utilisateurs n’en ont pas bien compris le fonctionnement et partagent bien plus que des fichiers sans valeur professionnelle. La quantité de réponses que renvoient des requêtes du style « rtf », « doc », « xls », « ppt » (documents Office), « dbx » (e-mail) ou encore « wab » (carnet d’adresses) est affligeante ! Votre routeur n’apportera hélas qu’une solution moyenne pour enrayer ce fléau. Il sait tout au plus ne pas ouvrir les ports « serveurs » des logiciels peer-2-peer en entrée, voire les bloquer en sortie. Cela n’empêchera pas vos utilisateurs de faire du peer-2-peer, puisque leur logiciel pourra toujours émettre des requêtes en mode client vers des machines elles-mêmes en mode client (votre routeur et celui du « pair » ouvrant chacun un port aléatoire pour les échanges). Cela affectera néanmoins grandement la vitesse de leurs téléchargements – ils se verront attribués une « low-ID » – et la quantité de pairs réellement joignables.




Le problème des « clients »

Reste le problème des clients (e-mail, FTP, peer-2-peer) qui rapatrient des fichiers depuis Internet, ces derniers pouvant malheureusement être des virus, trojan ou autres microbes connus. La règle de base consiste à faire comprendre à vos utilisateurs qu’ils ne doivent jamais double-cliquer sur un document s’il se termine par « .exe », « .com », « v.dll », « .bat », « .pif », « .vbs », voire « .pl » ou « .py », même s’il dispose d’une icône laissant penser qu’il s’agit d’un fichier image, vidéo, audio ou texte. Mieux : en ce qui concerne l’e-mail, souscrivez à un service d’antivirus directement auprès de votre fournisseur d’accès, lequel mettra tout le sérieux nécessaire pour accomplir cette tâche, dont les mises à jour quotidiennes – ce qui reste difficile à faire sur chaque poste interne. En ce qui concerne la navigation Web, protégez-vous des microbes espions ou publicitaires en ne surfant qu’avec Firefox (le logiciel le plus sûr en attendant un Internet Explorer 7 mature). La solution radicale, enfin, consiste à placer un proxy entre le routeur et le commutateur Ethernet (la multiprise réseau sur laquelle on branche les machines du LAN). Un proxy, en plus de servir de cache pour accéder plus rapidement aux informations du Web souvent consultées par vos utilisateurs, a la capacité de filtrer le contenu de chaque paquet qu’il voit transiter ; alors que le routeur ne travaille que sur l’en-tête. Double revers de la médaille, ces opérations ralentissent le trafic entre Internet et le réseau local et il convient de passer du temps sur leur configuration, à base de règles, pour qu’elles filtrent un maximum de méfaits connus.

À ce stade, on peut légitimement se poser la question d’un antivirus et d’un firewall logiciel directement installés sur chaque poste du réseau. Si vous disposez d’un routeur, voire d’un proxy correctement configuré, alors le firewall personnel ne vous sera plus d’aucune utilité. Si vous avez appliqué toutes les mises en garde présentées dans cet article, alors le risque d’être infecté par un virus est très, très faible. Gardez à l’esprit que de vous passer d’un antivirus vous apportera le bénéfice de postes de travail plus rapides, totalement réactifs et bien plus productifs : certains antivirus peuvent s’accaparer plus de la moitié de la puissance d’une machine pour fonctionner, sans parler de leur administration par l’utilisateur même ; mais pas forcément le bénéfice de la sérénité.
Virus
Réduire
Virus : terminus Helsinki
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

virus26695_Copier6.gifUne réunion de travail dans la salle principale du laboratoire de F-Secure, à Helsinki.
Le monde de la sécurité informatique souhaite souvent conserver secret son savoir-faire. Récemment, l’éditeur d’antivirus finnois F-Secure a accepté cependant de nous faire visiter son laboratoire. Comment sont détectés les virus ? Comment sont-ils traités ? Rejoignez notre visite guidée !

L’impression est celle d’entrer dans le saint des saints. Et c’est un peu religieusement que notre guide nous ouvre la porte blindée qui nous mène au laboratoire de recherche où nous reçoit Mykko Hyppönen, le directeur de recherche de F-Secure.
Après un rapide bonjour, les premières questions fusent. Comment vous parviennent les virus ? Les chemins sont divers selon lui : « Pendant longtemps, les auteurs de virus nous en envoyaient ; certains comme une sorte de “ proof of concept ”. Ils réalisaient des virus mais ne faisaient rien d’illégal avec. Cela a bien changé, nous en recevons encore quelques-uns, mais cela se fait rare. Notre principale méthode aujourd’hui est de poster des serveurs victimes qui récupèrent ces virus pour nous permettre de les identifier. Cela nous permet aussi de voir la vitesse de propagation d’une infection. Il y a une troisième voie : les liens entre directeurs de recherche des éditeurs de ce secteur fonctionnent bien et dès que nous trouvons un nouveau code malicieux, nous le mettons à disposition de nos collègues suivant différents canaux. » Ensuite, se déclenche une véritable course contre la montre.


Force de réaction rapide

Avec son badge, Mykko nous ouvre alors la porte d’une large pièce. Au fond sur un mur, un vaste écran nous montre le code interne d’un virus. À droite, un autre écran se remplit de points de différentes couleurs. C’est une simulation géographique des infections sur la planète dans les dernières 24 heures, ou selon l’échelle de temps choisie par l’équipe.

virus36784_Copier7.gifVous ne connaissiez pas la tête de Bagle ? La voici !
Sur un autre poste, une sorte de « Légo » formé de briques rouges et de liens en bleu se dessine sur un écran. À première vue, cela fait penser à une sorte de brin ADN. La génétique n’est pas très loin. « Ce que nous voyons est un outil de visualisation qui nous permet, d’après le code du virus, de recréer sa structure et les liens qu’il comporte entre ses éléments internes et les impacts sur les systèmes d’information », indique Mykko. D’origine hongroise, le logiciel permet ainsi de regarder la structure du virus concerné et de comprendre son fonctionnement de manière visuelle. « Son autre avantage est d’accélérer l’analyse en pointant directement sur les éléments de structure de virus. Chaque virus a ainsi une forme spécifique, la comparaison des formes nous permet plus rapidement de connaître à quelle famille appartient un virus et d’aiguiller plus rapidement l’analyse. Entre la réception du virus et la fourniture de l’antidote, le temps doit être minimum. C’est un moyen de réduire ce temps », ajoute le directeur de recherche de F-Secure.

 
Des structures de tests tout terrain

1_press7222_Copier5.gifMykko Hyppönen
Cette étape préliminaire d’identification permet ensuite le test du virus pour connaître ses effets. Mykko nous conduit alors dans une pièce tout en longueur où se trouve une batterie d’ordinateurs. « Avec ces machines, nous regardons les effets des virus sur les différents systèmes. Ces machines ne sont pas reliées au réseau pour éviter les risques de propagation à l’extérieur de cette pièce. Nous utilisons aussi beaucoup les machines virtuelles pour tester les virus et voir leur impact sur les différents OS ou applications. Nous testons aussi des virus plus spécifiques, comme ceux sur les appareils mobiles ou les périphériques. » Pour éviter toute contamination accidentelle, les tests ou opérations sur les virus mobiles se réalisent à l’intérieur d’un bunker métallique qu’il est interdit d’ouvrir lors des opérations. Mykko ajoute : « Il nous fallait quand même trouver un moyen de contacter une personne à l’intérieur en cas de besoin. Après de très longues réflexions, nous avons trouver une idée géniale et bien adaptée : frapper à la porte » ! Plus sérieusement, dans cette cage de Faraday, Mykko Hyppönen nous décrit les effets du bestiaire du monde mobile que ce soit pour les PDA, téléphones… Et consoles de jeu. Eh oui, il existe déjà un virus s’attaquant à la dernière console de Sony. Son origine est cependant très mystérieuse. Le cas recensé provient d’une carte mémoire infectée lors d’un échange de jeu. Il semble très efficace en « tuant » quasiment la machine.
À partir de ces différents éléments, les développeurs entrent alors en action pour concocter l’antidote et le faire parvenir le plus rapidement possible sur le poste du client à protéger. Sur ces étapes, seule la compétence des développeurs et des outils déployés font la différence. La rapidité entre en ligne de compte, mais il est difficile de donner une moyenne. « Tout dépend de la structure et de la complexité de l’exploit à traiter. Sa nouveauté peut être aussi un élément dans le temps pour le traiter. Cela va moins vite lorsque l’ingénierie employée est très innovante. Heureusement, cela se fait rare et nous voyons plus un assemblage de différentes briques déjà plus ou moins connues », ajoute Mykko.


Retour aux tests

Suite à la phase de développement, l’antidote retourne en test pour éviter de mauvaises surprises à l’utilisateur lorsqu’il téléchargera le remède. Autant éviter que le mieux devienne l’ennemi du bien ! Suite à cette étape, les antidotes sont chargés sur les serveurs et envoyés dès que le client se connecte sur son PC. Cette base de signature mise à jour comprend « toute l’histoire de l’informatique », assure Mykko Hyppönen. « Certains virus ne peuvent plus agir car ils ne fonctionnent que sur certains systèmes aujourd’hui disparus, mais nous gardons cela en mémoire. En sécurité, il ne faut rien oublier. »
Sécu Mobiles (1ère partie)
Réduire
Sécuriser les appareils mobiles (1ère partie)
Par Steve Rigano - Copyright L'Informaticien, tous droits réservés

mobile211005_Copier6.gifLes téléphones mobiles sont déjà des plates-formes d’attaques, surtout s’ils sont pourvus d'une interface bluetooth ou infrarouge.
Une architecture d’entreprise ne se limite pas à un réseau interne central, mais inclut des appareils mobiles, toujours de plus en plus divers technologiquement. Bluetooth ou Wi-Fi (PDA, téléphones cellulaires…), ils sont le complément indispensable du cadre nomade. Quels sont les risques réels pour ces appareils mobiles et les bonnes pratiques visant à les sécuriser ?


Il y a quelques années, l’informatique se limitait à des connexions filaires. Les risques d’écoutes sur une connexion filaire étaient quasiment nuls pour les entreprises (tout le monde n’a pas les moyens d’espionnage industriel de la NSA…). De nos jours, on assiste à une multiplication des appareils électroniques sans fil. De fait, la sécurité informatique dans ce domaine prend une autre dimension. Les bienfaits de ces appareils sont indéniables. Ainsi, beaucoup de pays promeuvent l’informatique et les communications mobiles dans l’optique d’améliorer la flexibilité des réseaux.
Pour limiter le sujet de cet article nous ne traiterons que les périphériques sans fils à l’exclusion des PC portables qui sont aujourd’hui totalement intégrés au système d’information de l’entreprise et qui sont donc pris en compte par la politique générale de sécurité de l’entreprise.
Beaucoup ne sont pas familiarisés avec le fonctionnement interne de ces appareils, seulement à leur utilisation. Nous conduirons donc deux approches : dans un premiers temps, nous allons nous familiariser avec les appareils mobiles, puis nous verrons en quoi les protocoles de communication sont sensibles au niveau de la sécurité. Enfin, nous traiterons de la sécurité applicative de ces appareils mobiles. Nous terminerons par un petit résumé des bonnes pratiques à respecter, si nous sommes munis d’un appareil mobile.


Des terminaux pour différents usages

Quand la technologie sans fil est apparue, il y a eu une pléthore d’appareils ayant chacun des fonctionnalités différentes afin d’améliorer notre quotidien. Cependant, de plus en plus la technologie tend à regrouper un maximum de fonctionnalités en un seul appareil offrant ainsi une plus vaste gamme de services. Malgré tout, on constate toujours une généralisation de différents types d’équipements.

• Les téléphones cellulaires : au début, seules les communications vocales étaient possibles ; aujourd’hui, on peut envoyer de la data (ex : SMS) ou de l’image (ex : MMS).
• Les assistants personnels (PDA) : au départ, ne servant uniquement que d’agenda électronique, les modèles plus récents comme le Blackberry comprennent des fonctionnalités avancées, telle qu’une messagerie électronique, la communication vocale…
• Les réseaux locaux et individuels sans fils (WLAN et WPAN) : ils permettent d’éliminer le câblage des composants réseaux.

Le danger n’est pas l’appareil en lui-même. Ainsi, nous n’allons pas considérer les équipements, mais plutôt les protocoles de transmission des signaux de données, les protocoles de communication de ces appareils. Tout comme nous avons cité ci-dessus trois « familles » d’équipements sans fils, on peut classer les protocoles de communications en trois catégories.

• Le protocole GSM : uniquement utilisé pour les téléphones cellulaires. Il possède plusieurs normes : GPRS, EDGE, UMTS, dont les principales différences résident dans la vitesse du débit.
• Le protocole Bluetooth (technologie WPAN, Wireless Personal Network) : est utilisé par exemple pour les PDA. Il remplace le protocole infrarouge, permet une communication d’une pièce à une autre par exemple.
• Le protocole Wi-Fi (Wireless Fidelity) : technologie de très haut débit, surtout utilisée pour les réseaux WLAN et WPAN.

Première piste : la sécurité doit être renforcée dans ces protocoles de communication, car les données ne transitent pas par un câble mais par la voie des airs. Tout ce qui transite par ce medium est beaucoup plus facilement accessible.

Un autre point mérite attention pour la sécurité : les applications présentes sur ces équipements mobiles. En effet, autant les PDA que les nouveaux téléphones cellulaires possèdent de réels systèmes d’exploitation et sont de véritables ordinateurs avec Windows, Linux, Symbian, Java… Or, comme tout système d’exploitation est victime d’attaques virales, un équipement mobile sophistiqué peut donc l’être. Quels sont les réels risques liés à la sécurité par rapport à ces deux points ? Comment se protéger efficacement ? C’est ce que nous allons traiter dans la suite de cet article.


Halte à la parano !
L’an dernier, le Blackberry de RIM s’était vu affubler d’une réputation sulfureuse à la suite d’un rapport classé secret-défense sur ses vulnérabilités supposées. La nouvelle s’était répandue comme une traînée de poudre. L’auteur de ce rapport : Imad Lahoud. Oui, le même que dans la peu claire affaire Clearstream. Il aurait démontré la possibilité du piratage du périphérique devant un cadre d’EADS qui aurait fait monter la mayonnaise sans véritablement réaliser une enquête sérieuse. L’IHEDN, Institut des hautes études de la Défense nationale, reprenait ce rapport en signalant que de grandes entreprises et des ministères sensibles interdisaient l’utilisation de ce type de périphériques. Eh bien, c’était de la fumée sans vraiment de feu ! Comme la plupart des périphériques dont nous parlons dans l’article, le Blackberry est sécurisé par l’encryptage des messages (AES 256 bits). Il ne possède pas de port infrarouge et il est possible d’interdire le téléchargement d’application. En fait, l’outil se révèle plus sécurisé que la plupart des matériels en vente sur le marché. Mieux ; EADS a entamé une démarche de certification du matériel pour que le matériel satisfasse les exigences sécuritaires des gouvernements européens.




Sécuriser les protocoles de communication

Premièrement, les risques de sécurité des appareils mobiles sont avant tout liés à la robustesse des protocoles de communications utilisées. Parmi les trois que nous avons cités, voyons brièvement quels sont pour chacun d’eux leur système de sécurité, du moins sécurisé au plus sécurisé.


Bluetooth

Un équipement Bluetooth possède, implémenté dans son hardware, trois modes de sécurité de base.

• Le mode 1 : il n’y a pas de mécanisme de sécurité, comme un hotspot Wi-Fi public.
• Dans le mode 2, la sécurité est assurée au niveau applicatif.
• Dans le troisième cas, la sécurité est au niveau de la liaison des données.

Pour le reste, la quasi-intégralité des routines de bas niveau relatives à la sécurité sont directement implémentées dans le chipset Bluetooth de façon matérielle.
À la différence du Wi-Fi, le Bluetooth ne possède pas de clé WEP ou WPA de cryptage, seul le code PIN assure une sécurité par mot de passe.
La sécurité est donc très faible. Il y a un an – juin 2005 – a été découverte une faille de sécurité permettant à quelqu’un de trouver le code PIN à distance. Une telle vulnérabilité permet à n’importe qui de prendre la main à distance sur un PDA par exemple. Cette attaque est assez peu répandue et ne peut viser qu’un individu ou qu’une machine précise pour s’accaparer certaines données. L’attaque ne permet pas, par exemple, d’installer des éléments dans la carte mémoire ou SIM. La réplication et la diffusion de l’attaque sont ainsi très limitées.


Wi-Fi

Le Wi-Fi est certainement le plus connu des protocoles de communication sans fil. En effet, il permet des connexions en haut débit. Il permet ainsi de relier des ordinateurs portables, des PC de bureau, des PDA ou tous autres appareils mobiles à une liaison haut débit (11 Mbps) sur un rayon de plusieurs dizaines de mètres.
Fondamentalement, le protocole Wi-Fi intègre, dans le standard 802.11, un mécanisme de chiffrement des données simple, le Wired Equivalent Privacy, ou WEP. Utilisant l’algorithme symétrique RC4 avec des clés de 64 à 128 bits, le WEP crypte les données qui transite sans fil. Or, il existe de nos jours beaucoup de logiciels permettant de cracker un cryptage WEP en quelques minutes : WEPcracker, Aircrack… Trente secondes sous Google suffisent à les trouver.
La norme 802.11i a donc mis en place un nouveau système destiné à combler les lacunes du WEP, le WPA (Wi-Fi Protected Access), s’appuyant sur un algorithme de cryptage appelé TKIP qui génère aléatoirement des clés avec la possibilité de changer de clés plusieurs fois par seconde.
Actuellement, il n’y a pas de logiciel public permettant de cracker aisément le WPA. Le seul moyen d’attaque est la force brute, avec une attaque par dictionnaire qui peut prendre des centaines d’années pour une clé de 4 caractères…


GSM

Le GSM (Global System for Mobile communications) contient des phases d’authentification et de chiffrement entre le mobile et la station de base et repose sur des mécanismes cryptographiques non publiés. En 1998, le mécanisme A5 de la norme GSM (mécanisme qui avait été supervisé par la NSA) est cracké par un groupe de Berkeley en 216 opérations.
En 1999, un groupe réduit le protocole A5/1 à 240 opérations, ce qui permet de pouvoir le casser en temps réel. La même année une méthode publiée démontre comment casser l’A5/1 (cryptage fort utilisé en Europe) en quelques minutes avec un PC de supermarché.
Cependant, c’est le protocole qui présente le moins de risque, car le prix des appareils permettant de pirater des GSM atteint plusieurs dizaines de milliers d’euros. En outre, cela requiert des connaissances techniques poussées.
Après ce petit tour d’horizon, force est de constater que les risques de sécurité liés aux protocoles de communication des appareils mobiles sont bien présents. Cependant, ils restent quand même limités. Examinons à présent le deuxième facteur de risque en ce qui concerne la sécurité des équipements mobiles : la sécurité applicative.


Le virus de la tête de mort !
L’un des virus les plus spectaculaires du monde mobile, du fait de sa propagation rapide et de la possibilité d’infection provenant d’une carte mémoire, s’appelle Skull. Simple, son emblème est une tête de mort. Il remplace les icônes du téléphone par des têtes de mort ou, dans une de ses variantes, par des pièces de puzzle. Son action rend la plupart des fonctions inutilisables. L’utilisateur ne peut que recevoir des appels. Parfois, il modifie les sonneries, particulièrement, celles de Noël. Il peut se rapatrier lors d’un téléchargement (sonneries, économiseurs d’écrans ou icônes). La solution passe la plupart du temps par un petit déplacement chez votre fournisseur de téléphone pour un reformatage complet de l’appareil. Ses principales victimes ? Les téléphones Séries 60 de Nokia qui fonctionnent sous Symbian, le système le plus attaqué par les virus mobiles.




Et au niveau applicatif

Aujourd’hui, la croissance des ventes de Smartphones et d’appareils cellulaires sophistiqués explose littéralement. Équipés de systèmes d’exploitation Symbian, Windows Mobile ou Java, ces appareils sont malheureusement la cible de programmeurs de virus. Ainsi, les virus ou codes malicieux appelés « exploits » (du fait qu’ils exploitent certaines vulnérabilités propres à un appareil mobile) se répandent en nombre depuis la programmation du premier virus pour téléphone mobile, Mosquitos, suivi de Cabir, plus connu car il possède une dizaine de variantes.
Mosquitos, par exemple, se cachait dans le jeu du même nom. MGDropper se propageait lui aussi dans une version piratée du célèbre jeu Metal Gear Solid. Nous voyons ici les risques : comme ces nouveaux portables permettent des connexions sur Internet, téléchargements, etc, ils peuvent récupérer une kyrielle de virus. Les attaques actuelles sont des chevaux de Troie déguisés en jeux, en économiseurs d’écrans, des codes qui provoquent des intrusions en mémoire. On peut imaginer que les prochains virus supprimeront ou voleront des données et représenteront pour les portables les mêmes risques que les virus pour ordinateurs.
Certains virus sont particulièrement vicieux. CommWarrior a retenu l’attention, il provoque des surfacturations téléphoniques. Comment ? Il se connecte via Bluetooth le jour et envoie des MMS multiples la nuit.
Face à ces risques bien réels, le but de cet article n’est pas de vous pousser à jeter par la fenêtre le moindre appareil mobile en votre possession. Cependant, il est nécessaire de connaître les risques afin de pouvoir se protéger plus efficacement. Examinons à présent les bonnes pratiques pour sécuriser ces équipements sans fils.


Une sécurisation efficace

Étant donné que nous avons abordé deux risques liés à la sécurité des appareils mobiles, nous traiterons séparément les bonnes pratiques pour chacun de ces risques.
Avant tout, les appareils mobiles ne doivent pas servir à traiter ou transmettre des données sensibles. En outre, dans toute la mesure du possible et du souhaitable, il est strictement prohibé de connecter un appareil mobile à un réseau d’entreprises. Cela évitera une propagation de code malicieux dans un réseau informatique professionnel.
D’autres méthodes peuvent relever de la paranoïa, mais sont citées par plusieurs sources. Quand vous tenez une discussion sensible avec quelqu’un, éteignez votre appareil mobile. Si vous croyez ces mesures insensées, je vous suggère de vous renseigner sur les vulnérabilités des appareils mobiles. En outre, il est essentiel que les niveaux de sécurité logicielle des PDA soient configurés au plus haut. Par-dessus tout, le responsable de la sécurité devrait évaluer les vulnérabilités propres à chaque appareil ou connexion avant l’acquisition et l’installation d’appareils mobiles et devrait mettre en place des procédures de sécurité et suivre leur respect.
Il est déconseillé d’utiliser un appareil utilisant le Wi-Fi avec une clé WEP, préférez une clé WPA. Choisissez une clé supérieure ou égale à 8 caractères. Du brute-forcing sur 8 caractères prendra des centaines d’années. Vous aurez le temps de voir venir.

Au niveau applicatif, quels moyens de protection existent contre les virus ? Existe-t-il des antivirus ? Oui, et il en existera davantage à l’avenir.
Ainsi, le 29 mars dernier, McAfee annonce une collaboration avec un éditeur de solutions de gestion des appareils mobiles, SmartTrust, dans le but d’offrir une solution d’antivirus intégré, McAfee VirusScan Mobile relié à une plate-forme SmartTrust qui permettra une mise à jour 24h/24, 7j/7.
McAfee VirusScan Mobile gère un peu plus de 50 types d’appareils mobiles différents. Il apporte des fonctions avancées d’analyse, de détection et de nettoyage des données mobiles, afin d’empêcher tous dommages liés aux virus, vers, chevaux de Troie, composeurs automatiques et autres programmes malveillants. Il bloque les menaces liées à l’utilisation de l’e-mail, de la messagerie instantanée et des téléchargements Internet et protège de nombreux points d’entrée comme SMS, MMS et Bluetooth. La protection est mise à jour dès que des menaces sont identifiées par le laboratoire de détection des vulnérabilités McAfee.
F-Secure propose l’antivirus F-Secure Mobile Antivirus. Comme celui de McAfee, il possède une fonction d’analyse en temps réel permettant d’intercepter et d’analyser automatiquement tout fichier modifié (créé, copié, télécharger). F-Secure possède un système original et unique sur le marché de mises à jour additionnelles via des SMS. Ainsi, dans des cas de vulnérabilités ou de découvertes de virus classés « critiques » par leur laboratoire d’analyse des vulnérabilités, un SMS est automatiquement envoyé aux personnes possédant cet antivirus.
Les appareils sans fils sont des inventions prodigieuses, mais sont exposés à de nombreux risques de sécurité si aucune protection n’est mise en place et si leur usage n’est pas réalisé dans le cadre d’une politique de sécurité. Pour les entreprises, les risques sont évidents. Les particuliers aussi devraient faire attention à ce problème. Les attaques possibles sur ces périphériques mettent directement à nu la vie privée du particulier.
Encore récentes, ces technologies vont évidemment évoluer dans le sens d’une plus grande sécurisation. Cependant, du fait de leur jeunesse, les failles ou vulnérabilités de ces systèmes n’ont pas encore été toutes révélées et rendues publiques. Il faut donc rester vigilant en se comportant avec ses appareils mobiles comme avec son environnement informatique habituel.
Sécu Mobiles (2ème partie)
Réduire
Des virus « mobiles » de plus en plus actifs
Par Bertrand Garé - Copyright L'Informaticien, tous droits réservés

virus5.jpgSkull est également un ver connu dans le monde du mobile. Après l’infection par ce ver, il faut soit enlever la carte mémoire qui infecte le poste ou bien reformater l’appareil… Mais il prévient que vous avez été infecté. Merci Skull !
Avec plus de 2 milliards de téléphones GSM sur la planète, sans compter les autres périphériques mobiles, du type smartphones ou Blackberry, un virus s’attaquant à ces plates-formes avec le risque de se répliquer pourrait faire des ravages. Il ne faut cependant pas devenir catastrophiste. Si le danger existe, il semble pour le moment circonscrit. Pour combien de temps ?

Qui n’a pas un téléphone mobile ou un PDA dans sa poche ? Ces appareils ne sont plus seulement que des appareils pour téléphoner en situation de mobilité. Ils proposent de nombreuses fonctions annexes avec de petits logiciels embarqués. Leur capacité de stockage augmente et permet de stocker des informations, parfois sensibles, pour des cadres en déplacement. Premier constat : la prise en compte de ces appareils dans le périmètre de la sécurité des entreprises est assez mal réalisée. Dans les documents relatifs à la sécurité dans l’entreprise, aucun article ne se réfère à l’utilisation ou au branchement de ces appareils venant de l’extérieur sur le réseau de l’entreprise. Les spécialistes de la sécurité appellent cela « le syndrome de la fête des pères ». Un cadre va se voir offrir un magnifique appareil mobile, non sécurisé, et l’utiliser comme une extension de son environnement professionnel, mais aussi comme un appareil personnel. Pour la plupart, c’est un très beau téléphone avec une calculette et un agenda un peu plus beau que le précédent sur leur téléphone. Pour les pirates ou les hackers, c’est un vecteur de plus pour pénétrer dans des réseaux d’entreprises ou téléphoner gratuitement aux dépens du naïf mal protégé.
Cette inconscience des risques est renforcée par la confiance que portent les usagers envers leur opérateur de téléphonie mobile. Ils achètent un service jusqu’à présent bien verrouillé du fait de passerelles propriétaires. Avec la généralisation de l’utilisation de l’IP, les temps risquent de changer ! Désormais, les utilisateurs devront accepter l’éventualité de se voir infectés par la voie des airs comme sur leur PC. Un constat difficile à faire. Il devrait se réaliser assez vite devant la rapidité et l’inventivité des créateurs de logiciels malicieux.


Comment fonctionne CommWarrior ?
Le ver se présente sous la forme d’un fichier archive (ZIP) qui contient l’exécutable CommWarrior.SIS. Dès qu’il est sur un poste infecté, le ver essaie de se répliquer aux périphériques Bluetooth présents dans son périmètre par l’envoi d’un fichier sous un nom aléatoire. Ce fichier propose par exemple d’installer une mise à jour de sécurité, un jeu, des pages de charme, des sonneries nouvelles gratuites… Si l’utilisateur accepte l’installation, le phénomène se reproduit avec son téléphone. Le ver se greffe de plus sur le carnet d’adresses et tente de s’envoyer par MMS à la liste de contacts du carnet. La principale conséquence pour l’utilisateur est de se retrouver avec une note bien salée en MMS à la fin du mois. De rapports d’alertes sur le virus proviennent d’une trentaine de pays, selon le laboratoire de F-Secure. Certaines victimes du virus se sont vues remboursées par leur opérateur. En plus de l’argent, on imagine bien la perte d’image occasionnée pour l’opérateur. Il n’y a pas de statistiques sur le taux de renouvellement à un opérateur après ce type d’incident.




Des virus de plus en plus évolués

En quelques années, les virus sur les mobiles ont évolué à une vitesse effarante ! Le premier, détecté par F-Secure, a attaqué la passerelle d’un opérateur espagnol. L’attaque utilisait la passerelle pour envoyer des messages insultants ou diffamatoires sur l’opérateur. Une sorte de « defacing » de l’opérateur. Ensuite sont apparus les virus s’attaquant au hardware. Un poste infecté ne pouvait plus s’éteindre ou s’allumait constamment, épuisant les batteries d’alimentation à vitesse grand V. Ces virus n’étaient gênants que pour l’utilisateur infecté. Tout comme dans le monde du PC, les vilains de la téléphonie se sont intéressés à faire fructifier leurs compétences. Ils concoctèrent donc des attaques applicatives pour faire aiguiller des utilisateurs vers des numéros surtaxés. La dangerosité était cependant limitée.

La dernière génération apparue au cours de l’année dernière amplifie les risques. Désormais, certains exploits mobiles se répliquent automatiquement comme le démontre un ver appelé CommWarrior. Il a depuis essaimé des variantes diverses.


Des voies d’infection diverses

Les possibilités d’installation d’un virus sur un appareil mobile sont diverses. Selon une étude réalisée par F-Secure, le premier vecteur d’installation est l’acceptation par l’utilisateur d’un fichier en provenance de l’extérieur. Ce cas se rapproche du « social engineering » connu dans le monde PC. Le plus souvent, selon un autre éditeur d’antivirus, Kaspersky Lab, les cyber pirates utilisent le Bluetooth comme point d’entrée pour établir des relations de confiance avec le possesseur de l’appareil mobile ou pour le convaincre de baisser ou de désactiver le système d’authentification lors d’une connexion Bluetooth.

F-Secure classe ce type de mécanisme comme le premier dans sa liste avec 199 cas recensés. Étonnamment, ce n’est pas le premier cas de rapport par les utilisateurs. On imagine, par analogie avec les PC zombies, combien de téléphones infectés se trimballent dans la nature !
Encore ne faut-il pas jeter la pierre aux utilisateurs. Dans la plupart des interfaces, le choix se résume à oui ou non et en méconnaissance de cause, les gens sont facilement enclins à cliquer sur oui.

L’acceptation d’une installation se produit aussi lors de l’insertion d’une carte mémoire corrompue lors d’échanges entre utilisateurs pour des musiques, des sonneries ou des jeux. Là, même pas besoin d’établir de relations de confiance puisque l’utilisateur fera directement confiance à celui qui l’infectera, souvent à l’insu même de la personne qui fournit la carte mémoire. Ces cas sont les moins nombreux recensés. Il existe même, par ce moyen, un cas d’infection d’une console de jeu lors d’un échange. Conséquence immédiate, la plate-forme est devenue inutilisable. L’effet dissuasif est depuis garanti.
Le deuxième vecteur est le MMS. Infecté par un ver, un téléphone envoie le fichier corrompu sous forme de MMS vers les adresses du carnet de contacts. Ce type d’infection représente 10 % des rapports reçus par F-Secure.
Reste le principal vecteur de contamination, le Bluetooth ! Le laboratoire finlandais a recensé 51 cas d’installation de virus par ce moyen. Il représente aussi le premier fournisseur de rapport vers l’éditeur d’antivirus. 70 % des rapports reçus traitent de ce phénomène.


Le Bluetooth, maillon faible ?
Selon des tests réalisés par le Kaspersky Lab, lors du salon Infosecurity à Londres et dans la région de Moscou, la possibilité d’une épidémie par le vecteur Bluetooth n’est pas négligeable. Les méthodes employées sont même assez simples. La plupart du temps, les téléphones attaqués sont en mode « visibilité » ; les méthodes existent en mode « invisibilité » mais sont plus complexes et réservées à de véritables initiés. Elles s’appuient principalement sur la recherche de l’adresse MAC du téléphone. Les tests réalisés indiquent que 25 % des appareils sont vulnérables à des attaques du type BlueSnarf. Elle utilise l’OBEX Push Orofile (OPP) utilisé pour l’échange des cartes de visite. BlueSnarf exécute une requête OBEX Get vers un fichier connu comme le carnet d’adresses. Si le niveau de sécurité est abaissé, l’agresseur peut accéder à tous les fichiers. Il récupère alors les données qu’il souhaite. Mais il est aussi possible d’effectuer des appels, d’envoyer des messages, de mener des attaques de déni de services ou d’écouter des conversations à partir de ce simple point d’entrée. Ce test n’est qu’un exemple de ce qu’il est possible de réaliser. Il est donc nécessaire que ce protocole soit mieux sécurisé dans ses prochaines versions.




Des attaques sur toutes les plates-formes

Il existe des virus ou des codes malicieux sur les principales plates-formes mobiles. En tête du hit-parade se classe l’environnement Symbian, promu par Nokia. Sur près de 240 virus s’attaquant à des appareils mobiles, 192 concernent ce système d’exploitation. Viennent ensuite Windows Mobile, Palm, puis J2ME.
Ce classement s’explique aussi par la prépondérance de Symbian dans le secteur. Le code est donc très commun, permet d’avoir un effet d’infection large. De plus, pour l’apprenti hacker, il existe déjà des codes malicieux. Il est donc plus facile de pondre un code légèrement différent reprenant une ingénierie virale connue. La version 60 des appareils du constructeur finlandais est particulièrement prisée.
Derrière, Windows Mobile fait « cheap » avec seulement quelques unités de virus connus. Il n’est que le reflet de la faible part de marché de ce système. Pour Mykko Hyppönen, de F-Secure : « Il est vrai que les moins de 10 % de parts de marché de Windows Mobile font partie de l’explication. Mais il y a certainement d’autres éléments. »
Pour les Palm, le nombre virus est stable depuis 2004 ! Le désintérêt des hackers suit celui des utilisateurs pour la plate-forme. Seul un virus est recensé sur la plate-forme Java apparu cette année. L’autre particularité de ce cheval de Troie était d’être aussi le premier à être véritablement à la recherche d’un gain financier par l’envoi de SMS surtaxé de près de 5 $ !

Autre innovation, le virus CardTrap a marqué les esprits car il était le premier qui essayait d’infecter plusieurs plates-formes différentes, les téléphones et les PC. Il déposait deux virus pour la plate-forme Windows en infectant la carte mémoire du téléphone. Lors d’une opération de synchronisation avec le PC, les virus se chargeaient et contaminaient le PC.
L’aspect épidémique des virus a été mis en évidence lors d’une compétition d’athlétisme qui s’est tenue en Finlande. Apparu la première fois aux Philippines, en 2004, le virus a donné une nouvelle poussée de fièvre lors des 10e championnats du monde d’athlétisme en se répliquant sur des appareils utilisant le Bluetooth.
Selon F-Secure, les principaux endroits sensibles pour ce type d’infection sont l’Europe et l’Asie : les deux continents où les appareils mobiles sont largement diffusés et employés.


De nombreux outils pour se défendre

Devant la recrudescence et le développement prévisible des attaques sur les appareils mobiles, les éditeurs de solutions de sécurité, et en particulier d’antivirus, ont senti l’odeur d’un gros business. Il est vrai que les différentes analyses de marché sur le secteur ne peuvent que les conforter. VisionGain prévoit une croissance de 1 600 % de ce marché dans les années à venir. IDC est plus modeste avec une croissance de 70 % d’ici à 2008 et un chiffre d’affaires de 1 milliard de dollars.
Le premier antivirus pour les plates-formes mobiles était… coréen. Ahn Lab défendait les téléphones utilisant le Wi-Fi.
Depuis, les principaux éditeurs ont lancés des produits ; F-Secure propose un logiciel protégeant les appareils sous Symbian et Windows Mobile. Le logiciel se télécharge avec un code d’accès sur le serveur de F-Secure. L’installation se réalise en acceptant les différentes opérations proposées sur les écrans du téléphone. Le suivi se réalise ensuite en temps réel. Les mises à jour se font par le moyen de push vers le téléphone. La protection des appareils Symbian par l’éditeur provient aussi du partenariat important avec Nokia, constructeur finlandais lui aussi.
TrendMicro, MacAfee et Kaspersky ont aussi ce type d’anti-virus à leurs catalogues. Kaspersky couvre les appareils sous Windows Mobile et les Palm. Les autres se concentrent principalement sur les environnements Windows.
La plupart des éditeurs ne visent pas le public des particuliers. Ils proposent des plates-formes de services pour les opérateurs visant à sécuriser leurs environnements ou en proposant dans le package logiciel dès la signature de l’abonnement à leur réseau une protection par un anti-virus. Ce système devrait se généraliser avant même qu’une attaque grave ou une épidémie se produise réellement. Pour une fois, les éditeurs pourraient bien avoir le beau rôle en prévenant plutôt qu’en guérissant ou en méprisant une menace devenue bien réelle.
p. 1
Réduire
Premiers pas avec Visual Studio 2005 Express

VisualStudio.jpgUn extrait de l’ouvrage « Développer avec Visual Studio 2005 Editions Express » qui vient de sortir aux éditions O’Reilly, de Laurent Desmons (368 pages, 40 euros environ).

Les grandes fonctionnalités de Visual Studio 2005 sont les suivantes :

• Visual Studio réunit tous les éléments d’un projet au sein d’un environnement intégré et permet d’organiser facilement la structure générale des fichiers et des répertoires d’un projet ;
• Visual Studio propose des modèles d’applications qui permettent de ne pas partir de zéro, de créer l’ensemble des fichiers requis pour les applications, ainsi que tout le code source du squelette de l’application. Certains modèles, appelés Starter Kits, sont même des applications complètement opérationnelles et modulables ;
• Visual Studio permet de naviguer facilement à travers tous les éléments d’un projet ;
• l’environnement comporte des concepteurs visuels qui permettent de concevoir le design des applications Windows et Web par simple glisser-déposer, et de générer le code source correspondant ;
• l’éditeur de texte fournit de nombreuses facilités de saisie : il détecte les erreurs de syntaxe et propose des corrections, il comporte plusieurs assistants très puissants et destinés à accélérer nettement la saisie du code source, comme l’Intellisense ou l’auto-complétion ;
• Visual Studio s’interface avec un très grand nombre de sources de données, comme des bases de données relationnelles ou des services Web ;
• Visual Studio comporte plusieurs assistants pour automatiser les tâches et générer tout le code nécessaire sans avoir à taper une seule ligne ;
• Visual Studio automatise et coordonne les étapes de compilation du code de tous les fichiers d’un projet ;
• Visual Studio permet de générer, de déployer et de déboguer facilement un projet.

fig1.jpgLe cœur du framework .NET.
Ce livre se focalise sur les versions dites Express de Visual Studio 2005. Ces versions sont compactes, téléchargeables rapidement, gratuites et faciles à utiliser. Chaque avatar est spécialisé dans un type bien précis d’application, mais l’environnement de développement reste le même.
Cependant, la gamme Visual Studio 2005 est étendue et assez versatile. Elle est structurée un peu comme des poupées gigognes : les versions plus complètes englobent les versions précédentes. Les versions Express se situent à la base de cette hiérarchie.

Les versions Express sont donc entièrement compatibles avec les versions supérieures. Apprendre à développer sous Visual Studio Express est un investissement qui ne sera pas perdu si vous passez un jour aux autres versions plus complètes.

Chaque version est destinée à un public différent. Choisir la version la mieux adaptée nécessite simplement de connaître vos besoins et vos motivations. Plus d’informations sont disponibles sur le site Microsoft de Visual Studio Editions Express.

Visual Web Developer 2005 Express est un outil de développement léger et facile à utiliser. Il s’agit de la version de Visual Studio 2005 qui est exclusivement dédiée au développement Web, en C# comme en Visual Basic 2005. Vous pouvez développer très rapidement des sites clés en main à partir de différents modèles, ou bien concevoir une application dynamique complète ASP .NET. Un chapitre est entièrement dédié à cet outil.
Si vous voulez développer rapidement des applications Windows, vous avez à votre disposition deux versions correspondant à votre langage de prédilection : Visual C# 2005 Express ou Visual Basic 2005 Express. Toutes les deux sont exclusivement dédiées au développement rapide et simple d’applications Windows. Un chapitre est entièrement dédié à ces outils.
La version Visual C++ 2005 Express permet de mettre en œuvre rapidement des applications en C++ en code managé ou natif. Cette version permet entre autres le développement d’applications multimédias à hautes performances, comme par exemple les jeux vidéo, en utilisant le Direct X SDK.
Si vous êtes un développeur professionnel, vous vous dirigerez vers les versions Standard et Professionnelle de Visual Studio 2005. Elles permettent de développer tous les types d’applications au sein d’un seul environnement de développement intégré – et dans tous les langages. Elles comprennent les versions Express et y ajoutent d’autres fonctionnalités, comme le développement pour les Pocket et PC. Tous les principes exposés dans ce livre peuvent y être appliqués tels quels. L’environnement est simplement plus complet et plus élaboré. On y dispose par exemple d’un concepteur graphique de classes.
La version Standard est le point d’entrée des développeurs professionnels. La version Professionnelle est la version complète de Visual Studio, avec des fonctions élaborées de débogage ou la possibilité d’utiliser des outils de reporting comme Reporting Services.

La suite Visual Studio 2005 Team System est une extension de Visual Studio 2005. Il s’agit d’un ensemble de versions destinées aux développeurs qui travaillent en équipe et veulent gérer les cycles de vie des applications. Ces versions se coordonnent mutuellement en un ensemble extrêmement cohérent (Team Suite) destiné à favoriser l’industrialisation des développements. La Suite Team System est déclinée en 5 versions adaptées chacune à un rôle bien particulier dans l’entreprise : architectes, développeurs, testeurs et chefs de projet. Visual Studio Team Developer est la version destinée au développeur.
Elle apporte des outils orientés vers la qualité logicielle, et bien utiles au quotidien : tests unitaires, couverture de code, vérifications syntaxiques, etc. Cet ensemble repose sur un autre composant, appelé TeamFoundation Server, qui sert de socle commun et s’apparente à un outil de gestion de configuration logicielle. La complexité et le prix de Visual Studio Team System en réservent toutefois l’usage aux équipes de développement dotées de moyens financiers et humains assez importants.
OReilly.jpg

Vos premiers pas avec Visual Studio.NET 2005

Vous connaissez maintenant les différentes versions de Visual Studio 2005 et vous savez quelle version choisir. Je vais tout de suite entrer dans le vif du sujet et aborder les grands principes du développement d’applications .NET avec Visual Studio 2005.
Ce livre est destiné aux utilisateurs des versions Express de Visual Studio. Pour cette raison, il est découpé en deux grands types d’applications :

• les applications Windows en C# ou en Visual Basic 2005, avec Visual C# Express 2005 ou Visual Basic 2005 Express ;
• les applications Web en C# ou en Visual Basic 2005, avec VisualWebDeveloper 2005.

Tout au long de ce livre les exemples seront donnés en C# puis en Visual Basic 2005. Ce chapitre est basé sur deux exemples concrets très rapidement mis en œuvre dans ces deux langages : un site Web ASP .NET et une application Windows. Vous allez ainsi pouvoir vous rendre compte de la facilité avec laquelle on peut développer une application avec Visual Studio. Le gros avantage de Visual Studio apparaît clairement ici : accélérer drastiquement la vitesse des développements en générant un maximum de code de façon automatique.
Considérez ces exemples comme un fil directeur. Tout au long de cette petite visite guidée, je vous renverrai aux chapitres correspondant de ce livre, afin que vous puissiez approfondir les notions que je ne fais qu’effleurer ici. J’insiste d’ailleurs sur le fait que la petite séance que vous allez suivre correspond exactement à la base du travail quotidien des développeurs professionnels. Les étapes sont les suivantes :

• lancement de Visual Studio ;
• création d’un projet Windows ou web ;
• survol de l’environnement de développement ;
• création du design et génération de code avec les concepteurs graphiques ;
• édition du code ;
• tests et débogage.

En détaillant ces étapes vous pourrez juger des similitudes apportées par Visual Studio pour le développement de ces deux types d’applications, car je développerai les deux exemples en parallèle. Tout ceci doit peut-être vous paraître beaucoup pour une première découverte ? Il est alors grand temps maintenant de voir Visual Studio en action !

Appli. web : lancez Visual Web Developer.
Appli. Windows : lancez Visual C# 2005 Express ou Visual Basic 2005 Express.

Nous reviendrons sur la page de démarrage lors de l’exploration du chapitre 2 de ce livre, « L’environnement de développement ».

En sélectionnant un modèle de projet parmi ceux livrés avec Visual Studio, on confie à l’environnement de développement le soin de nous faciliter la tâche en le laissant créer l’ensemble des fichiers du projet nécessaires à l’application.

Dans Visual Studio, le terme Projet fait référence à une collection de fichiers réunis logiquement de façon à créer une application.

(...)
Visual Studio crée également ce qu’on appelle une Solution.

Dans Visual Studio, une Solution est un ensemble de projets regroupés sous un nom unique, ici par défaut le nom du premier projet créé. Ce terme remplace la notion d’espace de travail (ou Workspace en anglais) utilisé en Visual Studio 6.

fig6.jpgAppli. web : choisissez le menu Fichier -> Nouveau -> Site Web... Sélectionnez ensuite le modèle de projet SiteWeb ASP.NET dans la boîte de dialogue qui apparaît alors.
Visual Studio 2005 est livré avec un mini serveur Web local, il n’est donc pas nécessaire que IIS soit installé pour créer une application ASP.NET. Les fichiers peuvent être simplement déployés dans n’importe quel répertoire local. Choisissez donc Système de Fichiers comme emplacement pour l’application. Sélectionnez également le langage que vous préférez.

Choisissez AppExpress comme nom pour l’application puis validez.

fig7.jpgAppli. Windows : choisissez le menu Fichier! -> Nouveau -> Projet... Les modèles de projets disponibles diffèrent un tout petit peu selon le choix du langage de programmation (tous les kits de démarrage ne sont pas disponibles en C# par exemple). Néanmoins vous pouvez toujours sélectionner le modèle Application Windows dans la boîte de dialogue qui apparaît alors.
Comme pour l’application Web, choisissez AppExpress comme nom pour l’application puis validez. Les points communs entre ces deux types d’applications apparaîtront ainsi encore plus évidents tout au long de cette visite guidée.
Après la création du projet, Visual Studio apparaît sous la même forme, quel que soit le type d’applications ou le langage utilisés.

Il est possible que Visual Studio n’apparaisse pas exactement sous cette forme pour vous, car toutes les fenêtres ne sont peut-être pas encore affichées par défaut dans votre configuration actuelle. Si c’est le cas, repérez et sélectionnez dans le menu Affichage les fenêtres manquantes à afficher.
p. 2
Réduire
La figure ci-dessous donne une vue d’ensemble de Visual Web Developer Express.

fig8.jpg

Les différences entre les différentes versions sont subtiles au point de passer d’un environnement à l’autre sans différences notables. L’environnement est également le même pour les versions plus complètes. Entrons donc un peu plus dans le détail.

Il apparaît immédiatement qu’un certain nombre de fenêtres est affiché d’office dans Visual Studio. Chaque fenêtre peut être redimensionnée ou positionnée comme on veut. Ces fenêtres sont les plus importantes à connaître. (...) Maîtriser le rôle et les manipulations de chaque fenêtre prime au quotidien.

Au centre, la zone la plus importante est dédiée à la fenêtre du document. Il présente deux modes d’affichage principaux :

• le concepteur graphique : il s’agit d’un outil du genre Wysiwyg dans lequel vous pouvez positionner à la souris les contrôles qui composent une fenêtre (WinForms pour les applications Windows et WebForms pour les applications web) ;
• l’éditeur de texte : permet de saisir du code (avec un système élaboré de reconnaissance syntaxique permettant de mettre en évidence certains éléments importants de chaque langage, comme les mots-clés). Pour les applications Web, par exemple, il peut s’agir du code HTML de la page affichée.
Un seul document est ouvert à la fois. Un système d’onglets permet de naviguer entre les différents documents du projet actuel (...).

À gauche de la fenêtre du document, la Boîte à outils comprend les différents contrôles que vous pouvez poser sur le concepteur graphique. La liste des contrôles dépend du type d’application (Windows ou Web).
À droite du document, la fenêtre Explorateur de Solutions. Cette fenêtre reprend l’arborescence et la liste des projets et des fichiers de la solution. Il suffit de double-cliquer sur un fichier pour ouvrir son contenu dans la fenêtre de document.
Sous l’explorateur de solutions, la fenêtre Propriétés affiche et permet de modifier les propriétés courantes de l’objet sélectionné (ici, le formulaire ouvert dans la fenêtre de document).
Sous la fenêtre du document, une série d’onglets permet d’alterner entre trois autres fenêtres.

• la fenêtre Liste d’erreurs affiche les erreurs et avertissements de compilation en cours. On arrive à la ligne de code de correspondant en cliquant sur l’erreur ou l’avertissement ;
• la fenêtre Liste des tâches affiche la liste des tâches actives ;
• la fenêtre Sortie affiche les traces de texte générées par l’environnement (résultat de la compilation, tâches effectuées, etc.).

Vous allez maintenant créer l’application en manipulant les contrôles de la boîte à outils.
L’exemple est volontairement très simple. L’utilisateur saisit un texte puis appuie sur un bouton : l’application Windows (figure 1) ou Web (figure 2) réagit en affichant le texte saisi dans une autre zone de te texte.

fig9.jpgFigure 1 : La première application Windows.fig10.jpgFigure 2 : La première application Web.


Appli. web : dans la boîte à outils, ouvrez le nœud Standard et glissez-déposez les contrôles suivants sur la surface du concepteur dans la fenêtre du document : deux contrôles TextBox, et un contrôle Button (vous pouvez trouver facilement ces contrôles en utilisant la bulle d’aide qui apparaît quand la souris survole les contrôles dans la boîte à outils). Positionnez les contrôles à l’endroit où ils doivent apparaître à l’exécution, comme par exemple dans la figure 1. Maintenant, repérez bien la fenêtre des propriétés. Ensuite, sélectionnez chaque contrôle en cliquant une fois dessus puis positionnez leurs attributs à tour de rôle dans la fenêtre des propriétés :

• premier contrôle TextBox : ID = txtSaisie ;
• contrôle Button : ID = btnClic, Text = «Cliquer ici» ;
• deuxième contrôle TextBox : ID = txtResultat.


Il est important de noter dès à présent les similitudes du développement de ces deux types d’application. Il ne faut cependant pas en déduire que les développement sont les mêmes : des spécificités existent, bien entendu, que les chapitres suivants de ce livre mettront en évidence.


Appli. Windows : dans la boîte à outils, ouvrez le nœud Contrôles Communs et glissez-déposez les contrôles suivants sur la surface du concepteur dans la fenêtre du document : deux contrôles TextBox, et un contrôle Button. (...) Positionnez les contrôles à l’endroit où vous voulez qu’ils soient à l’exécution. Ensuite, sélectionnez chaque contrôle en cliquant une fois dessus, puis positionnez leurs attributs à tour de rôle dans la fenêtre des propriétés (voir la figure 3 pour un exemple en Visual Basic 2005).

• premier contrôle TextBox : nom= txtSaisie ;
• contrôle Button : nom= btnClic, Text = «Cliquer ici» ;
• deuxième contrôle TextBox : nom = txtResultat.

fig11.jpgFigure 3 : Propriétés du contrôle Button (Windows).
Le lecteur averti peut légitimement se demander comment fonctionne l’application Web par exemple. En effet, il n’est pas du tout évident a priori de comprendre comment le code de C# ou Visual Basic que vous saisissez peut bien se mélanger avec le code HTML de la page Web (...).

Remarquez tout de suite une différence essentielle : les contrôles ne sont pas les mêmes. Les groupes dans les boîtes à outils non plus. Pour l’application Windows, le contrôle Button est plus précisément une instance de la classe System.Windows.Forms.Button. Pour l’application web, le contrôle Button est une instance de la classe System.Web.UI.WebControls. Button. Le code est identique grâce notamment aux directives using insérées automatiquement dans le code par Visual Studio en fonction du type d’application. En .NET, les interfaces de programmation sont ainsi clairement unifiées (à quelques détails près).

Le travail du développeur consiste essentiellement à saisir du code. Le concepteur que vous venez de voir a plusieurs rôles. Il permet de disposer les éléments graphiques qui forment l’apparence des fenêtres de vos applications. Il génère ainsi le code de correspondant en parallèle. Les fichiers de ressources des MFC ont disparu avec .NET : les contrôles sont maintenant créés dynamiquement par Visual Studio, qui fait en sorte de toujours synchroniser le code généré et l’apparence graphique des applications. Le concepteur permet également de saisir de nouvelles lignes de code directement.
Pour notre exemple, il faut copier le texte de la zone de saisie dans le texte de la zone de résultat quand l’utilisateur clique sur le bouton. Visual Studio permet d’insérer du code très simplement dans le gestionnaire de l’événement Click du bouton. La fenêtre des propriétés du bouton permet en effet également de définir le nom de chaque gestionnaire d’événements de ce bouton. Pour afficher la liste des événements d’un contrôle, cliquez sur le petit éclair dans la fenêtre des propriétés. Vous pouvez ensuite sélectionner l’événement Click.

fig12.jpgL’événement Click du bouton btnClic (Web).
Pour définir le nom de la méthode qui fait office de gestionnaire de l’événement Click, vous pouvez saisir un nouveau nom de méthode ou en sélectionner un existant dans la zone à droite du nom de l’événement. Vous pouvez aussi simplement laisser faire Visual Studio et double-cliquer sur cette zone. Visual Studio génère alors une méthode dont le nom dépend du nom du contrôle et de l’événement, comme par exemple btnClic_Click pour l’événement Clic du bouton btnClic.

Visual Studio .NET apporte un raccourci bien pratique pour saisir le code de l’événement Click d’un bouton. En effet, il s’agit de l’événement le plus utilisé pour un bouton, et il est donc affecté par défaut au bouton. Visual Studio permet de modifier facilement le code du gestionnaire de l’événement par défaut d’un contrôle : il suffit en effet de double-cliquer sur le contrôle btnClic pour activer l’éditeur de code du gestionnaire de son événement Click par défaut.

Visual Studio génère alors tout le code de l’infrastructure nécessaire au gestionnaire d’événement prenant en compte l’événement Click du bouton. Il ne reste plus qu’à saisir le code correspondant dans le corps de la méthode ainsi créée. Pour les connaisseurs, c’est aussi simple qu’en Visual Basic 6 ! Pour Windows comme pour le Web, le code est exactement le même, seule change la syntaxe liée au langage utilisé.

C#

private void btnClic_Click(object sender, EventArgs e) {
        txtResultat.Text = txtSaisie.Text ;
}

Visual Basic 2005

Private Sub btnClic_Click(ByVal sender     "
    As System.Object,
                                                     ByVal e     "
    As System.EventArgs)
                                    Handles btnClic.Click
       txtResultat.Text = txtSaisie.Text
End Sub


fig13.jpgL’intelligence en action.
(...) Sachez que l’éditeur de code bénéficie du support d’un assistant indispensable : l’Intellisense.
Il s’agit de la technologie qui permet de faire apparaître automatiquement une info-bulle d’informations en fonction du contexte, comme par exemple de nous rappeler le nom et le type des paramètres des méthodes (voir la figure suivante avec la méthode Show de la classe MessageBox).

fig14.jpgInsertion d’un point d’arrêt.
(...) Ceci est rendu possible grâce au format particulier des commentaires que vous pouvez associer à chacune de vos méthodes. Les classes de la FCL sont ainsi entièrement commentées de façon exhaustive. L’Intellisense est une des inventions qui favorisent le plus la productivité des développeurs, et donc leur engouement pour Visual Studio.
Vous allez maintenant pouvoir tester l’application. Pour la lancer il suffit juste d’appuyer sur Ctrl+F5. Visual Studio procède à la compilation puis exécute l’application. Saisissez alors un texte dans la première zone de saisie et appuyez sur le bouton. Comme prévu, le texte saisi apparaît dans la deuxième zone de saisie.
Essayez maintenant de déboguer l’application. Ici encore, Visual Studio vous facilite la tâche.

Cette séance de débogage est valable pour n’importe quel type d’applications. La facilité de débogage des applications Web sous Visual Studio 2005 est un atout inestimable.

Vous allez insérer un point d’arrêt sur la ligne de code que vous venez de saisir dans le corps du gestionnaire d’événement Click du contrôle btnClic. Pour cela, il suffit de cliquer sur la zone grise à gauche de la ligne de code. (...) Un petit point rouge apparaît alors pour indiquer l’emplacement où s’arrêter le débogueur. Visual Studio surligne également en rouge le code associé.
Il suffit maintenant d’appuyer sur F5 pour lancer le débogueur. Visual Studio procède d’abord à une compilation de l’application avant de la lancer.

Appli. Web : si le débogage n’est pas activé dans le fichier web.config (...), Visual Web Developer 2005 vous avertit qu’il doit le modifier si vous voulez déboguer. Il suffit de cliquer sur OK pour accepter.

Tapez du texte dans la première zone de saisie et appuyez ensuite sur le bouton Cliquer Ici. Le débogueur interrompt l’exécution du code dès qu’il rencontre votre point d’arrêt.
Visual Studio entre alors en mode Débogage et surligne en jaune cette fois-ci la ligne sur laquelle il s’est arrêté. À partir de là, il est possible d’examiner en détail l’état des variables et de suivre pas à pas l’exécution de l’application.
p.1
Réduire
IPTV et HD
La télévision numérique dans tous ses états
Par Olivier Pavie - Copyright L'Informaticien, tous droits réservés

fb7526_Copier7.gifLes informations techniques d’un flux vidéo avec la Freebox. Fbinfo7524_Copier6.gif
À l’aube des évolutions massives vers le très haut débit, les opérateurs proposent déjà des programmes de télévision sur ADSL en Haute Définition (HD). Comment y parviennent-ils ? Quelles en sont les contraintes ? Quels terminaux utiliser ? Y a-t-il une possibilité de regarder plusieurs chaînes sur plusieurs terminaux en même temps ? L’arrivée de la Freebox HD annonce une nouvelle génération de périphériques pour l’IPTV. Êtes-vous prêt ?

La télévision et la vidéo deviennent IP, et de manière inéluctable. En témoignent les annonces qui n’en finissent pas de pleuvoir pour afficher telle ou telle amélioration des services de tel ou tel opérateur de téléphonie : Free a tiré le premier, France Télécom a suivi, Erenis, opérateur alternatif très haut débit, propose aussi sa solution, etc. Nous en sommes « déjà » là ! La télévision ne se contente plus des hautes sphères. Elle se déploie tous azimuts en numérique, en partie sous terre, dans des tuyaux qui apportent interactivité et intégration de services multimédias.


Le Multicast comme source de la TV

Avec la télévision, la principale question qui se pose lorsque l’on connaît la manière dont fonctionne un réseau, c’est l’approche qu’il est nécessaire de mettre en place pour gérer ne fut-ce que le simple changement de chaîne. C’est a priori facile, mais comment basculer en moins d’une seconde d’un flux de 3 Mbps à 4 Mbps – en résolution standard – et jusqu’à 12 Mbps voire 20 Mbps – en HD (format HD Ready et non pas Full HD) – lorsqu’on dispose d’une ligne à 8 ou 20 Mbps et qu’il existe plusieurs dizaines ou centaines de chaînes disponibles ? Elles ne peuvent pas être sélectionnées directement comme le fait un récepteur satellite ou un tuner, TNT ou analogique, de télévision hertzienne : comment font-ils donc ?

Le principe du Multicast qui a été retenu consiste à mettre à disposition un réseau Ethernet relié aux différents DSlam des opérateurs de téléphonie – concentrateur DSL du central téléphonique. Ce réseau dédié à la vidéo, et auquel se raccordent les fournisseurs de contenus via des serveurs de broadcasting, se charge d’amener le plus de flux possibles au niveau du DSlam et assure ainsi une commutation rapide de l’acheminement d’un flux vers l’abonné. Des centaines ou des milliers d’abonnés peuvent ainsi souscrire au flux de leur choix. Toutefois, il y a des limites. Il n’est pas économiquement possible d’amener systématiquement les flux de plusieurs centaines de chaînes à un DSlam ne disposant que de quelques dizaines ou centaines d’abonnés.

Dans le cas de l’absence d’une chaîne dans le faisceau de flux multicast acheminé vers le DSLAM, la requête de la chaîne est remontée vers un nœud de réseau qui disposera de ladite chaîne ou ira la demander à un autre nœud. C’est là que les temps de latence peuvent jouer un rôle non négligeable et c’est là que des équipementiers, comme Cisco, Thomson, Alcatel et d’autres, travaillent en amont des opérateurs pour fournir le service adéquat. Jean-Christophe Dessange explique bien les influences de l’IGMP (Internet Group Management Protocol) et de sa version dans la résolution des principaux problèmes d’interaction et de temps de latence, mais il soulève aussi le problème de la sécurisation (voir encadré).



Jean-Christophe Dessange, Responsable Europe pour l’IPTV chez Cisco
dessange_Copier8.gif
« Cisco est fournisseur d’infrastructure Carrier IP/Ethernet pour la diffusion IPTV d’opérateurs. Pour certains, ce ne sont pas moins de 750 nœuds de raccordement qui assurent la distribution de la télévision en mode multicast auprès d’un potentiel de 2 millions d’abonnés desservis. Les problématiques actuelles du développement de l’IPTV concernent le temps de réponse du changement de chaîne, la convergence rapide en cas de perte de lien ou de routeur et la validation de la requête de demande de réception de chaîne TV pour garantir au diffuseur que le demandeur a bien le droit de demander l’opération en question. Le protocole PIM Sparse est généralement utilisé entre les routeurs pour envoyer dynamiquement les flux à la demande des utilisateurs. L’utilisation de PIM Source Specific Multicast (PIM-SSM) permet d’optimiser la gestion et de sécuriser l’accès au réseau Multicast. Le protocole IGMP permet à la STB de demander à s’abonner au groupe multicast correspondant à la chaîne TV, la version 3 permettant l’utilisation de PIM-SSM. Il ne faut qu’une centaine de millisecondes pour que le réseau soit capable d’amener la chaîne de télévision demandée par l’utilisateur. Le reste du temps est pris au niveau de la set-top-box (ou boîtier TV) par la gestion des programmes, des autorisations et des délais de sélection des chaînes sur la télécommande (jusqu’à une seconde) pour aboutir à un total comparable ou inférieur à la télévision par satellite. »




Diffuser la vidéo

Une fois parvenu chez l’abonné, le flux Multicast doit pouvoir être visualisé sur un téléviseur. Free (et d’autres) propose pour cela une prise Péritel sur sa Freebox (V3/V4) tandis que sur la Livebox de France Télécom, l’un des deux ports Ethernet (le jaune) peut être configuré pour se voir attribuer une liaison directe avec un décodeur IPTV/Vidéo à brancher au poste de télévision.

Les questions qui se posent sont alors relatives à la qualité de la vidéo reçue, à ses possibilités d’adaptation avec les différentes normes actuelles de vidéo et aux options relatives à l’enregistrement sur magnétoscope, DVD, serveur de fichiers en réseau, HDDVD ou Blu Ray. En outre, et ce n’est pas la moindre des questions, il est intéressant de se demander quelles possibilités sont envisagées pour pouvoir regarder plusieurs chaînes en même temps sur plusieurs récepteurs dans la maison. Les Français qui vont en effet acheter quelque 5,3 millions de récepteurs TV en 2006, disposent en moyenne de 2 à 2,5 postes par foyer, et ce chiffre tend vers les trois télévisions (source : GFK).
fbhd7614_Copier5.gifLe module télé de la nouvelle Freebox v5. Il contient un décodeur SD et HD, un tuner TNT, une prise HDMI pour connecter un téléviseur HD Ready et trois antennes pour la connexion sans fil au boîtier ADSL.
Pour ce dernier point, c’est en général un logiciel client installé sur le PC en réseau qui va pouvoir accéder à la télévision en Multicast. Solution que Free propose en plus de sa connexion Péritel sur la Freebox (V3/V4) avec le logiciel client VLC Mediaplayer. C’est ce que les freenautes appellent l’option multiposte.
Pour ce qui est de la qualité de la vidéo reçue et des possibilités d’affichage des différentes normes, tout n’est plus que réseau Ethernet et décodeurs. La Freebox HD est une première réponse à l’adaptation possible des réseaux avec ce qui va devenir le standard de la diffusion de la vidéo (HD Ready) pendant les cinq ans à venir. Pour satisfaire le plus possible aux besoins de « qualité de service », sous-entendu de qualité adaptée à une lecture fluide de la vidéo (mais pas forcément dans le sens de la QoS au sens informatique du terme), la Freebox HD est en réalité un adaptateur réseau/vidéo qui se raccorde en Ethernet ou en Wi-Fi Mimo à la nouvelle Freebox V5, elle-même revue et corrigée pour supprimer la Péritel et profiter de ce gain de place afin d’intégrer un petit hub Ethernet 4 ports. Free a ainsi rejoint France Télécom sur le plan de la solution évolutive.
La Freebox HD n’est pas non plus la seule sur le marché. Cisco, au travers de sa filiale Linksys, a prévu le déploiement d’un enregistreur HD en Allemagne pour de la télévision en IP sur le réseau VDSL de T-Online International, tandis que la Netbox HD de Netgem est par exemple utilisée par Erenis sur son réseau FTTB/VDSL, etc. Les connectiques retenues pour les nouveaux équipements compatibles HD sont sans surprise : le HDMI accompagné de solution de protection numérique HDCP désormais incontournable, mais pas forcément systématiquement exploitée.

Reste à résoudre le problème de la qualité de la vidéo que l’on va pouvoir afficher avec les débits actuellement disponibles sur le réseau. Autant la vidéo « classique » SD (Standard Definition) est opérationnelle en ADSL sur les réseaux compatibles ADSL 2+, autant le problème de la TVHD se pose avec les débits garantis qu’elle nécessite. VDSL et FTTB (Fiber to the building : fibre optique jusqu’à l’immeuble) ou FTTH (Fiber to the Home : fibre optique jusqu’au domicile) peuvent s’avérer être des solutions d’autant plus appréciables qu’elles permettent aussi d’envisager d’avoir plusieurs clients TV sur le réseau.

Pour pallier la transition de l’adaptation des réseaux aux besoins de convergence réseau/télévision, il y a une solution complémentaire mise en œuvre par Free dans sa Freebox HD, mais aussi par Cisco via des Set Top Box (STB) Linksys : le récepteur TNT intégré dans la boîte se révèle capable de redistribuer la TV sur IP dans la maison… Très fort ! Et très économique en bande passante.



Microsoft TV, Media Center et convergence
fredfavre8728_Copier9.gifPour Frédéric Favre, de Microsoft France, Microsoft TV est une solution de « télévision sur IP » au sens Unicast du terme et dans le sens streaming. C’est aussi une plate-forme de VOD qui exploite les mêmes serveurs pour assurer un temps de réponse global extrêmement réduit pour la requête de l’utilisateur. Microsoft TV est un client logiciel qui se veut volontairement léger pour s’installer sans difficulté dans une STB classique. Ce sont les serveurs qui font le travail. Microsoft TV a commencé à être déployée début juin pour la première fois en France sur la plate-forme ADSL de Club-Internet. En ce qui concerne des questions sur la convergence des plates-formes Media Center et Microsoft TV, il n’y a pas aujourd’hui de solution qui intégrerait cette possibilité. Ce ne sont pas aujourd’hui les mêmes marchés, même si les interfaces se ressemblent. Le Media Center (Windows XP MCE) permet de regarder la télévision et d’enregistrer des programmes depuis une carte tuner intégrée ou un décodeur externe, tout en permettant à des Media Extender (jusqu’à 5), comme la Xbox 360, de profiter des médias et de l’interface Media Center. La STB, cliente de Microsoft TV, se raccorde directement à un poste de TV pour lui offrir ses services et s’arrête là pour aujourd’hui.


p. 2
Réduire
Web TV et VOD poussent à la roue

Sorti de l’IPTV et de ses flux Multicast, la Web Télévision, et surtout la VOD (Video on demand = Vidéo à la demande), se posent en challengers incontournables. La Web TV est ce que certains professionnels dénomment la télévision sur IP pour la distinguer de la télévision sur ADSL (ce qui est développé dans cet article sous l’appellation IPTV). La Télévision sur IP exploite l’unicast, une technologie de streaming point à point. Basée sur le même principe, la VOD dispose de deux atouts majeurs : une équation économique intéressante pour les opérateurs et fournisseurs de contenus, et une adaptation possible de la solution réseau en fonction de ce que l’opérateur veut offrir.


La TV sur IP avec le FTTB
bouti7710.gif
Frédéric Boutissou, co-fondateur et président d’Erenis (http://www.erenis.fr), est aujourd’hui capable de proposer la fibre en technologie FTTB, c’est-à-dire avec l’arrivée de la fibre optique jusqu’à l’immeuble, puis en VDSL jusqu’au domicile. Cette technique offre aujourd’hui la possibilité de disposer d’ores et déjà d’un débit symétrique de 40 à 50 Mbps en symétrique chez le particulier (ou l’entreprise). Le déploiement VDSL2 permettra d’ici à septembre 2006 d’atteindre les 100 Mbps symétriques. Erenis propose ce réseau sur Paris. En termes de services, Erenis propose Focus TV, un bouquet de 50 chaînes et en proposera jusqu’à 75 en bouquet de base gratuit à la fin de l’année. En SD, Erenis est capable de proposer des chaînes sans perte à 8 Mbps de signal, contre les 2,5 à 4 Mbps des opérateurs sur ADSL. La grande force d’Erenis est de pouvoir proposer un bouquet HD à tous ses clients qui sont à 100 % éligibles à ce bouquet. Et ce, malgré les 15 Mbps nécessaires.



La vidéo à la demande peut en effet être proposée en « instantané », ce qui requiert de la part de l’opérateur télécom la mise à disposition d’un flux Unicast important (streaming), en semi décalé (progressive streaming, c’est-à-dire mise en mémoire tampon du streaming avant de commencer la diffusion), ou en décalé total avec un enregistrement programmé. Ces deux dernières solutions peuvent être assimilées à du téléchargement « protégé ». Pour assurer la diffusion de contenus vidéo, que ce soit en mode Web TV ou en mode de VOD, les architectures réseau doivent être particulièrement optimisées. Un opérateur de diffusion de contenus de VOD comme CanalPlay utilise aujourd’hui une plate-forme dédiée, basée sur un serveur de chez Yacast en point à point. D’autres diffuseurs de contenus, comme France Télévision aujourd’hui, exploitent la technologie d’Akamaï de réplication de serveurs par une mise en cache tout autour de la planète. Pour Patrice Boffa, consultant EMEA d’Akamaï, jusqu’à 400 000 accès simultanés peuvent être assurés pour un serveur sur leur réseau !


VOD et analyse de trafic pour les diffuseurs
Aymeric de La Vaissière, consultant Nouvelles Technologies pour plusieurs acteurs de la télévision, puis co-fondateur et directeur technique d’EverTEST, anime la division MediaPeering de la société. C’est dans ce contexte qu’il a apporté son expertise à plusieurs projets significatifs du monde de la VOD, dont la Banque Audiovisuelle et son portail grand public VODEO.tv et le Comité Français de Radio Télévision, pour son portail www.jds.tv et ses archives numériques. Pour France TéléVision Interactive (FTVI), EverTEST fournit en plus une supervision temps réelle de la visibilité de ses sites et partenaires depuis de nombreux points d’accès réels situés sur des offres d’accès de tous les FAI du marché français. Grâce à ce réseau, EverTEST est le seul à fournir à ce jour un moyen efficace et objectif d’évaluer la qualité de la connectivité Internet d’un opérateur ou un hébergeur. Pour exemple, la technologie EverROUTE permet de déterminer, en temps réel et sur la durée, la réalité des routages (transit ou peering) exploités depuis un centre serveur vers les internautes.



Prospective

La convergence de l’IPTV avec le reste de la maison numérique est encore un concept de fond, même s’il intègre désormais de façon systématique le paramètre indispensable du HDTV. La forme, quant à elle, est en train de dessiner trois principaux scénarios : poste TV unique, postes TV multiples clients d’une connexion IPTV externe et postes TV multiples clients d’un serveur de médias lui-même client multiple IPTV.


HD : les points clés
En matière de HD, il faut distinguer la HD Ready (environ 1 megapixel) amenée à afficher dans le mode 720p (720 lignes non entrelacé) du Full HD qui, lui est prévu pour l’affichage effectif du 1080i (i pour interlaced, pour une résolution de trame de 2 megapixels, mais un affichage entrelacé de deux demi trames de 1 megapixel), voire du 1 080p (1 080 lignes non entrelacé pour une résolution réelle de 2 megapixels). Les débits nécessaires au HD Ready sont de 12 à 20 Mbps. Les débits prévus pour le Full HD en 1 080p sont de 24 à 40 Mbps, tandis que le 1 080i peut tenir entre 15 et 20 Mbps. Les caractéristiques qui se normalisent en termes de connectique audio + vidéo sont le HDMI et le HDCP. Le 1 080p nécessite HDMI version 1.3. En termes de compatibilités des PC avec la HD, cela va bon train côté développements. Chez nVidia, les premières cartes GeForce 7 sont sorties en avril avec une sortie HDMI. Les cartes tuner HD optimisées pour la HD sont en cours de développement et sont amenées à exploiter les spécifications de DXVA (DirectX Video Acceleration) pour l’accélération des contenus Windows Media Video 10. Les prochains développements des cartes graphiques les plus haut de gamme pour les PC sous Vista vont intégrer deux puces, dont une dédiée aux traitements de la vidéo HD.


Glossaire HD


• HDMI (High-Definition Multimedia Interface) : interface à type de connecteur de taille réduite permettant de transférer à la fois le signal audio/vidéo/données/contrôle au format numérique entre un équipement multimédia et un écran/téléviseur. En fonction de la version de HDMI, différentes caractéristiques sont disponibles. La résolution HD 1 080p (1 920 pixels par 1 080 pixels non entrelacé) requiert la version HDMI 1.3.
• HDCP (High-Bandwidth Digital Content Protection) : développée par Intel, cette technologie de protection anti-copie s’active par le diffuseur de signaux HDTV pour des sorties de type DVI ou HDMI.
• HDTV (High Definition Television) : cette appellation n’est pas un standard en soi. Elle a été reprise pour les nouveaux formats de vidéo haute définition 720p (progressive, en réalité 1 280 pixels sur 720 lignes par trame), 1 080i (interlaced, en réalité 1 920 pixels sur 1 080 lignes en deux demi trames entrelacées) et 1 080p (progressive, 1 920 pixels par 1 080 ligne par trame). Le format HD Ready correspond à l’interprétation possible des signaux 720p et 1 080i, mais la restitution de la vidéo dépend de la résolution de la dalle.
p. 3
Réduire
Club-Internet et Microsoft TV
L’ADSL devient Media Center
Par Olivier Pavir - Copyright L'Informaticien, tous droits réservés

guide.gifVod-212037_Copier12.giftimeshifting.gif
Club-Internet vient de lancer son offre IPTV basée sur la technologie Microsoft TV : pléthore de services au rendez-vous. La solution s’appuie de plus sur une interface au look de Media Center d’une rapidité saisissante. Une nouvelle plate-forme remarquable.


Depuis quelques jours, certains abonnés à Club-Internet profitent de la nouvelle offre de télévision sur ADSL proposée avec l’interface et la technologie Microsoft TV. Les nouveaux abonnés ne pourront en bénéficier qu’à la rentrée de septembre. Ils devront ronger leur frein car l’expérience n’a rien de commun en matière de télévision numérique : en plus de la TV, de la VOD, etc., la SVOD fait son apparition.


Rapidité hors pair

Le premier service qui marque lorsque l’on regarde le fonctionnement de cette plate-forme Microsoft TV, c’est le design, mais surtout une vitesse de fonctionnement de l’interface utilisateur et des services qu’elle déclenche quasi instantanément. On est loin d’être habitués à une telle performance multimédia en général, et encore moins dans le domaine de la vidéo. Même un poste de télévision standard n’offre pas une telle vitesse…

Il est vrai que de nombreuses astuces ont été mises en œuvre pour améliorer l’ensemble de ces performances. Les éléments fournis par Christophe Dessange dans les pages précédentes ne sont pas étrangers au « répondant » de cette plate-forme qui, ne l’oublions pas, fonctionne avec une « boîte » d’origine Linksys, filiale de Cisco. En outre, le couplage intelligent d’un double tuner TNT simplifie en partie le problème de gestion des flux entre ADSL et hertzien au moment opportun, en fonction de ce que vous êtes en train de faire.


Les fonctions ne manquent pas

Les fonctions intégrées dans l’offre reprennent en partie tout ce que l’on peut rêver de mieux, ou presque : il ne manque que la gravure intégrée de DVD pour les émissions que l’on voudrait garder éternellement. En effet, pour le quotidien, la boîte dispose d’un disque dur de 80 Go. De quoi stocker quelques heures de vidéo en bonne qualité SD en plus d’offrir une fonction standard de time-shifting. Il est aussi possible d’enregistrer une chaîne pendant qu’on en regarde une autre, comme lorsque l’on couple le tuner d’un magnétoscope à celui de la télévision.

En termes de fonctions, le guide de programmes se présente comme celui que l’on a l’habitude de trouver sur un Windows Media Center. La différence c’est qu’ici les chaînes sont systématiquement bien référencées puisque faisant partie d’un bouquet que l’opérateur sait vous avoir vendu. Il y a en effet un bouquet gratuit, mais il y a aussi pour l’utilisateur la possibilité de s’abonner à plusieurs bouquets, dont TPS et d’autres, proposés sous des rubriques plutôt thématiques. En tout, plus de 150 chaînes disponibles.

Le Services incluent la VOD (vidéo à la demande) et un service innovant de SVOD, c’est-à-dire la possibilité de s’abonner forfaitairement à un nombre déterminé de programmes sur un mois. Une sorte de forfait vidéo-club. Pour la formule plus classique de VOD, le paiement à l’acte est proposé sur un catalogue prévu pour s’enrichir de cinquante nouveaux programmes par semaine.

Pour finir, le plus bluffant est le contrôle du direct, qui va au-delà du time shifting grâce à la vitesse vertigineuse du défilement du film avec un retour sur l’événement allant jusqu’à 1h30. Cette barre de défilement dans l’’interface est un élément que l’on retrouvera dans la technologie du HD-DVD d’ici quelques mois.