X
5G
Vincent Habchi / mercredi 3 juillet 2019 / Thèmes: Dossier, Mobilité

5G

Le défi technique de la 5G

Le déploiement de la 4G est à peine fini que la 5G frappe à la porte ! Il faut dire que, depuis dix ans, les utilisations de la téléphonie mobile ont évolué, sous la double impulsion des besoins sans cesse croissants en bande passante et en mobilité ; si bien que la 4G s’essouffle déjà. Quelles réponses techniques le 3GPP, organisme de normalisation du GSM, a-t-il imaginé pour faire de la future 5G ce que le public attend d’elle ? A-t-il une solution technique pérenne ? Capable d’amener l’Internet très haut débit à tous ? Et partout et tout le temps ?

Les différentes applications de la 5G.

Au début du GSM, dans les années 90, le service de transmission de données, ou « data », était considéré comme auxiliaire. Les premières normes (1G, 2G) n’y accordaient qu’une attention marginale, limitant les débits à ce que les modems de l’époque fournissaient (9,6 kbps, fax). Ce n’est qu’à partir de la 3G que la transmission de données a commencé à retenir l’attention des experts – il n’y avait alors plus rien à gagner du côté de la voix. Avec la 4G et sa modulation OFDM « futuriste », l’ETSI (l’organisme de normalisation de l’époque) pensait sans doute avoir mis au point une solution technique stable et pérenne.

Las. C’était sans compter sur l’explosion de la demande. La 4G a provoqué un saut qualitatif en termes de débit, et a favorisé l’apparition de nouveaux usages eux-mêmes générateurs de nouveaux besoins. Jusque-là, rien d’étonnant : tout cela s’était déjà passé dans le domaine des liaisons fixes. Mais plusieurs facteurs, que l’ETSI n’avait pas vus venir, se sont ajoutés à cette simple évolution technologique.

Les performances attendues avec la 5G en comparaison des niveaux actuels offerts par la 4G.

 

Le mobile explose

La dernière version (février 2019) du Cisco Visual Networking Index (VNI) Global Mobile Data Traffic Forecast Update [1] est assez éloquente : le trafic mobile sur l’Internet a été multiplié par dixsept entre 2012 et 2017 : en 2012, le volume de données mobiles s’élevait à 686 000 TB/mois ; 650 millions de nouveaux terminaux ont été activés en 2017, pour un total de 8,6 milliards d’unités, dont « seulement » 51 % de smartphones, mais ces derniers ont représenté 88 % du trafic données total. Ce trafic était lui-même composé pour 59 % de vidéos, et le trafic moyen par smartphone a bondi de 1,6 Go/mois en 2016 à 2,3 Go/mois en 2017, soit une progression de 50 %. Et ce n’est là que la partie émergée de l’iceberg, car les applications envisagées de la 5G vont bien au-delà de ce que la 4G offre. On peut citer, entre autres [2] :

•   la vidéo Ultra Haute Définition (4K+) ;

•   les applications  de réalité augmentée ;

•   les applications  de réalité virtuelle ;

•   le partage de photos/ vidéos en direct à l’occasion de concerts  ou d’événements sportifs ;

•   les jeux vidéo en réseau ;

•   accès au Cloud, que ce soit en mobilité pure ou dans des « bureaux itinérants » ;

•   « l’Internet tactile » ;

•   accès au réseau par  des mobiles aéroportés : avions, drones ;

•   les robots collaboratifs ;

•   les radio et télédiffusion  par Internet… (Etc.)

L’IMT-2020 (5G) Promotion Group, un organisme gouvernemental chinois qui s’occupe de la coordination de la 5G en Chine, a ainsi estimé que si le trafic mobile global avait été multiplié par deux cents entre 2010 et 2020, il le serait encore par cent entre 2020 et 2030, une estimation reprise par l’UIT, l’Union Internationale des Télécommunications. Dans les centre-villes des métropoles et les quartiers d’affaires, l’augmentation des débits pourrait être encore plus importante. À l’instar du trafic fixe, le trafic mobile est fortement asymétrique : les volumes descendants (réseau → terminal) dépassent de beaucoup les volumes ascendants. La transmission de vidéos UHD, par exemple, même compressée en H.265, requiert des débits de plusieurs centaines de mégabits par seconde. L’autre facteur anticipé de croissance du trafic est l’explosion de « l’Internet des objets ». Certains experts prophétisent une multiplication exponentielle des capteurs connectés – leur nombre pourrait atteindre cent milliards à terme. Même si cette prévision paraît quelque peu irréaliste, les raisons de cette déferlante sont bien connues. On peut citer [2] :

•   les « smart grids »  et le suivi des infrastructures essentielles ;

•   les capteurs environnementaux (qualité de l’air, de l’eau, niveau sonore…) ;

•   l’agriculture connectée ; •   les objets portables (wearables) comme les montres connectées ;    la surveillance vidéo ;

•   le contrôle industriel ;

•   les « smart cities » ;

•   les futurs véhicules autonomes.

Selon [1], on comptait déjà 526 millions de wearable devices en 2017, dont environ vingt possédaient un accès GSM autonome. Il n’est cependant pas certain que ce segment se développe aussi vite que la surveillance vidéo, par exemple.

Des besoins divers… et contradictoires

Parmi les utilisations envisagées de la 5G, certaines sont peu contraignantes : la surveillance de la qualité de l’air, par exemple, se contente d’un débit faible et d’une latence quelconque. Certaines ont besoin d’une forte bande passante, comme la diffusion vidéo, par exemple ; d’autres encore ont besoin d’une latence extrêmement faible : c’est le cas de la conduite autonome ; d’autres, enfin, comme les jeux vidéo, exigent des performances maximales, aussi bien en bande passante qu’en latence.

Le service 5G doit aussi s’accommoder de l’usage à bord des trains à grande vitesse où les téléphones se déplacent parfois à 400 km/h, ou savoir gérer l’ensemble des smartphones des spectateurs d’un match de football, avec une densité de connexions dépassant le million par kilomètre carré. À l’opposé, dans les milieux ruraux, la 5G est attendue comme substitut au réseau fixe pour amener l’Internet haut débit jusqu’aux hameaux les plus isolés, à l’instar de ce que certains opérateurs proposent déjà sous le nom de « Box 4G ».

Il est très difficile, voire impossible, de satisfaire toutes ces conditions, dont certaines sont contradictoires, en utilisant une technologie unique. La 5G offrira donc un ensemble de réponses technologiques, et les opérateurs décideront laquelle implémenter selon le contexte : milieu rural, urbain périphérique, urbain dense, hotspot ou intérieur.

La principale variable d’ajustement identifiée est la fréquence de fonctionnement. Les bandes allouées à la 5G se divisent en deux régions distinctes : en-dessous et au-dessus du 6 GHz. Les fréquences inférieures bénéficient de conditions de propagation relativement bonnes, particulièrement sur terrain plat, ce qui permet de constituer des cellules assez larges et convient bien en milieu rural, où on ne peut installer des antennes tous les kilomètres ; les réseaux 4G actuels fonctionnent d’ailleurs tous en-dessous de 3 GHz.

À l’inverse, les fréquences au-delà du 6 GHz s’atténuent rapidement, et ne permettent que des liaisons courtes, voire ultra-courtes au-delà des 30 GHz ; en contrepartie, la taille des antennes est faible (quelques centimètres), ce qui permet d’installer de nombreux relais dans des tissus urbains denses avec un impact visuel quasi-nul. Les équipements 5G seront donc non seulement séparés « fréquentiellement », mais aussi « géographiquement » : les hautes fréquences seront utilisées en ville, les basses en milieu moins urbanisé. Pour assurer le débit qu’on lui demande (10 Gbps sur un smartphone !) la 5G ne peut qu’être gourmande en bande passante. Les études montrent que de tels débits, à destination d’un public aussi large et varié, nécessitent de réserver au moins 2 GHz dans les « bandes basses » (< 6 GHz), soit la bagatelle de 33 % de tout l’espace hertzien entre 0 et 6 GHz. Or, il faut bien comprendre que le spectre radioélectrique est une ressource limitée, partagée et non renouvelable : une bande de fréquences attribuée à une utilisation n’est – en général – pas utilisable simultanément dans le cadre d’une autre application. La voracité des opérateurs de télécommunication fait donc grincer des dents, en particulier chez les militaires, qui avaient l’habitude de réserver à l’avance de larges bandes sous couvert d’intérêt national, et de ne jamais les rendre ; on peut comparer cette façon de faire aux quelques majors de l’informatique qui possèdent un /8 et ne veulent pas s’en séparer…

Gérer les bonnes fréquences

Avant les premiers déploiements français, l’ANFr, et les autres régulateurs nationaux, devront donc dégager de l’espace radioélectrique en arbitrant les besoins des opérateurs, des militaires et des autres utilisateurs civils comme la radio-télédiffusion, l’aviation, les radars divers (aériens, météo…), etc. Dans ces conditions, il n’est pas certain que les États satisfassent totalement les besoins en fréquences du nouveau système, et les bandes allouées sous les 6 GHz ne seront pas harmonisées entre pays. Pour pallier cette future carence, les opérateurs envisagent de recourir au refarming, c’est-à-dire de reconvertir les actuelles bandes 2G vers la nouvelle 5G.

Au-dessus du 6 GHz, la situation est moins critique, d’autant que les fréquences envisagées pour la 5G se situent entre 32 et 33 GHz, 40 et 76 GHz, puis entre 81 et 86 GHz. Ces trente gigahertz ne seront pas tous alloués pour la 5G, mais celle-ci devrait cependant se tailler la part du lion dans une zone du spectre où, de toute façon, les utilisateurs potentielles ne sont pas légion.

Certaines de ces bandes ne seront pas non plus à usage exclusif de la téléphonie mobile, mais comme la portée des transmissions n’excédera pas quelques centaines de mètres tout au plus, un choix pertinent de la position des relais pourra résoudre les problèmes d’interférence. Les bases de données géolocalisées qui enregistrent les coordonnées et les fréquences de tous les relais installés assureront une coordination entre les différents utilisateurs.

L’OFDM passera la main à… l’OFDM !

L’autre grand débat autour de la 5G consistait à savoir s’il fallait continuer à utiliser la modulation radio utilisée par la 4G, à savoir l’OFDM. L’Orthogonal Frequency-Divison Multiplexing est une technologie performante de transmission de données à haut débit et faible coût utilisée non seulement par la 4G, mais aussi par la télédiffusion numérique. Son avantage principal réside dans la simplicité de son codec (lire encadré). Un autre avantage de l’OFDM est sa résistance aux conditions de propagation difficiles, impossibles à éviter en ville. L’émetteur insère un préambule connu (cyclic prefix) au début de chaque paquet. Le récepteur compare alors le préambule reçu à sa valeur théorique, et en déduit une estimation des conditions de propagation sous forme d’une fonction mathématique qu’il applique ensuite au reste du message pour le corriger à la volée.

L’OFDM n’est cependant pas parfait : les décalages en fréquence affectent l’orthogonalité des sous-porteuses et provoquent des interférences ; il faut utiliser des horloges précises, et ne pas se déplacer trop vite en raison de l’effet Doppler. De plus, la puissance émise fluctue fortement, ce qui implique de devoir créer des amplificateurs linéaires à grande dynamique, d’où une complexité accrue, une efficacité réduite, davantage de courant consommé et donc une durée de vie de la batterie diminuée d’autant.

Malgré ce bilan mitigé, l’OFDM a gagné la bataille pour la 5G. Pour mieux utiliser la bande passante disponible, les débits seront adaptés en fonction de la fréquence utilisée (on parle de « numérologie »), les bandes hautes pousseront les données plus vite que les bandes basses. La taille des paquets demeurant fixe, cela signifie également que les bandes hautes offriront une latence plus faible. Un déséquilibre qu’il sera peut-être possible de compenser partiellement en autorisant les stations à émettre plusieurs signaux OFDM sur la même fréquence, par exemple un à faible latence, et un autre à débit important, sous couvert de pouvoir traiter les interférences résultantes [3].

La technologie MIMO (Multiple Input Multiple Output) permet à la station de base de diriger ses signaux vers le mobile auquel elle s’adresse. D’après [2].

Le MIMO en appoint

La dernière arme dans la besace des concepteurs de la 5G pour gérer les centaines de milliers de connexions par kilomètre carré des futurs hotspots urbains s’appelle le MIMO, l’acronyme de Multiple Input, Multiple Output. Le concept n’est pas neuf, puisque Free l’avait déjà mis en avant pour les connexions WiFi de ses Freebox HD.

Cette technique s’appuie sur la « diversité spatiale » : la station de base est équipée de multiples antennes – disposées d’ailleurs d’une façon quelconque. Cette redondance est exploitable de plusieurs façons, depuis la simple écoute simultanée sur chaque antenne, qui permet d’améliorer le niveau de réception en jouant sur la multiplicité des signaux reçus, jusqu’au beam forming, la possibilité de « concentrer » le faisceau d’ondes dans la direction du mobile avec lequel la base souhaite communiquer, ce qui assure à la fois une meilleure réception côté mobile, et une certaine confidentialité.

Conclusion

Les défis techniques à surmonter pour assurer la couverture homogène du territoire en 5G sont nombreux. La qualité de service ne sera de toute façon jamais la même en milieu urbain et en milieu rural, où les besoins diffèrent. Les techniques radio-électriques mises en œuvre peuvent paraître complexes, mais le déploiement des réseaux fixes capillaires qui viendront nourrir les stations de base est un problème tout aussi crucial et difficile à résoudre. Avec l’arrivée des micro-cellules urbaines, le nombre de routeurs risque d’exploser. Cisco et les autres fabricants d’équipements de routage doivent déjà se frotter les mains.


L’OFDM : un signal simple et peu coûteux

Le signal OFDM se compose d’une multiplicité de sous-porteuses, chacune modulée par un élément de donnée différent. Par exemple, si l’on dispose de huit sous-porteuses, on peut affecter chacune à un bit particulier d’un octet, et transmettre celui-ci d’un coup. En réalité, ce sont 1 à 8 bits qui peuvent être transmis par chaque sous-porteuse, on peut donc transférer jusqu’à huit octets simultanément avec huit sous-porteuses. Le cadencement des données est calculé pour que ces sous-porteuses soient « orthogonales », c’est-à-dire qu’« elles ne se marchent pas les unes sur les autres », autrement dit qu’elles n’interfèrent pas entre elles : l’énergie d’une sous-porteuse est maximale là où celle de toutes les autres s’annule. Modulateur et démodulateur OFDM ne consistent qu’en un simple bloc calculant une (I)FFT (transformée de Fourier rapide) – opération très simple à implanter en silicium – plus un convertisseur série-parallèle. Cette simplicité explique le faible coût et donc la large adoption de cette modulation pour les utilisations « grand public ».


Sources [1] https://www.cisco.com/c/en/us/solutions/collateral /service-provider/visual-networking-index-vni /white-paper-c11-738429.pdf – Février 2019. [2] W. Xiang, K. Zheng, X. Shen (editors) : 5G Mobile Communications. Springer, 2017. ISBN 978-3-319-34206-1. [3] Ali A. Zaidi et al. : Waveform and Numerology to Support  5G Services and Requirements.

Print
920
Tags:5G

x
Rechercher dans les dossiers
Les derniers dossiers...
Réduire
Actuellement à la Une...
Le groupe de recherche OpenAI, dont Elon Musk est un des investisseurs, signe un important partenariat avec Microsoft qui gagne ainsi un client d’envergure pour son Cloud Azure.

Le lecteur multimédia est affligé d’une vulnérabilité critique de type débordement de la mémoire tampon. La troisième découverte en deux mois chez VLC. Un correctif est en cours de développement.

La marque à la pomme a finalement trouvé en avril dernier un accord avec Qualcomm mettant fin à leurs litiges. Intel venait en effet d’annoncer qu’il ne produirait plus de modems 5G, obligeant probablement Apple à trouver un compromis avec son rival. Ce qui n’empêche pas Cupertino de songer à rapatrier les activités modems 5G du fondeur dans son giron.

[EXCLUSIF] Depuis ses débuts, la plateforme collaborative est en butte à une critique récurrente : ses clients web et desktop sont gourmands, très gourmands. Or Slack annonce aujourd’hui résoudre ce problème et déploie une mise à jour améliorant les performances de ses applications. 


Pendant un quart de siècle, il a pris avec lui des informations classifiées provenant d’agences gouvernementales américaines. Pour avoir volé plus de 50 To de données, Harold Martin est condamné à 9 ans de prison. Mais la preuve d’un partage ou d’une vente de ces informations n’a jamais pu être apportée.

La fondation autour du projet Cloud Foundry va déployer une nouvelle version du programme de formation et de certification et sera dévoilé lors de l’édition européenne de la conférence de la fondation.

L’éditeur de solutions de protection des données a profité de l’événement partenaire de Microsoft, Inspire, pour annoncer le renforcement de sa solution avec de nouvelles fonctionnalités qui sécurisent les données des solutions SaaS de Microsoft.

Si le gendarme des données personnelles laisse un an aux éditeurs pour s’adapter aux futures règles régissant le dépôt de cookies, les nouvelles règles conformes RGPD fraîchement publiées au JORF donnent un aperçu du futur régime applicable et matière à prendre de l’avance.


Les verticaux, si chers au gouvernement et à l’Arcep, commencent à manifester de l’intérêt pour obtenir des bandes de fréquences. Mais point de 5G ici, EDF et Aéroports de Paris sont candidats sur la bande 2,6 Ghz, destinés à la 4G, dont le guichet d’attribution a été ouvert en mai dernier.

Fin de partie pour les navettes autonomes circulant sur l’Esplanade de la Défense. Trop complexe, trop couteux, trop inadapté, le service expérimenté depuis 2017 est finalement arrêté.

Toutes les News

LIVRES BLANCS
Les entreprises et les organismes publics se focalisent aujourd’hui sur la transformation numérique. En conséquence, les DevOps et l’agilité sont au premier plan des discussions autour des stratégies informatiques. Pour offrir ces deux avantages, les entreprises travaillent de plus en plus avec les fournisseurs de services de cloud public et développent désormais des clouds sur site à partir d’une infrastructure qui répond à trois exigences de base:
1. Agilité sans friction des ressources physiques
2. Systèmes de contrôle optimisant l'utilisation des ressources physiques et offrant un retour sur investissement maximal
3. Intégration des divers composants de l'infrastructure pour un provisionnement et une gestion des ressources automatisés.


Pour fonctionner, votre entreprise doit pouvoir compter sur une solution de sauvegarde efficace, essentielle dans un monde marqué par une croissance exponentielle des données. Vous devez à la fois accélérer vos sauvegardes et pouvoir y accéder plus rapidement pour satisfaire les exigences actuelles de continuité d’activité, disponibilité, protection des données et conformité réglementaire. Dans cette ère de croissance effrénée, les cibles sur bande hors site et autres approches traditionnelles sont simplement dépassées.


L’Intelligence Artificielle promet de révolutionner la perception de la cybersécurité au coeur des entreprises, mais pas uniquement. Ce changement de paradigme engage, en effet, une redéfinition complète des règles du jeu pour les DSI et les RSSI, ainsi que l’ensemble des acteurs de la sécurité.


Lorsque l'on déploie des postes de travail, ils ont généralement tous la même configuration matérielle et logicielle (avec certaines spécificités selon les services). Mais on ne peut pas toujours tout prévoir et il arrive par exemple que de nouveaux programmes doivent être installés ou n’aient pas été prévus. L’accumulation de logiciels « lourds » est susceptible de provoquer des lenteurs significatives sur un PC allant jusqu’à l’extinction nette de l’application. Ce livre blanc explique comment optimiser les performances au travers de 5 conseils rapides à mettre en place.


Ce guide est conçu pour aider les entreprises à évaluer les solutions de sécurité des terminaux. Il peut être utilisé par les membres de l'équipe de réponse aux incidents et des opérations de sécurité travaillant avec des outils de sécurité des points finaux sur une base quotidienne. Il peut également être utilisé par les responsables informatiques, les professionnels de la sécurité, les responsables de la conformité et d’autres personnes pour évaluer leurs performances. les capacités de l’entreprise en matière de cybersécurité, identifier les lacunes dans la sécurité des terminaux et sélectionner les bons produits pour combler ces lacunes.


Tous les Livres Blancs