La 5G : vers des réseaux plus intelligents Conférence Télécom ParisTalk du 14 octobre 2019
LA 5G : VERS DES RESEAUX PLUS INTELLIGENTS
Conférence Télécom ParisTalks du 14 octobre 2019
Le contexte
Virtualisation et techniques de cloud computing, network slicing¹, décentralisation de certains traitements en périphérie de réseaux (Multi Access Edge Computing¹) ... : au-delà de l'augmentation des débits et de la capacité, la 5G s'accompagne de nombreuses innovations qui visent à rendre les réseaux plus intelligents.
Après la conférence de l’année dernière qui avait permis une présentation générale de la 5G, cette nouvelle conférence Télécom ParisTalks consacrée à la 5G a mis l’accent sur les enjeux et opportunités de ces évolutions vers des réseaux plus intelligents, mais aussi sur leur impact notamment en termes de sécurité des réseaux :
• Quelles opportunités de nouveaux services peut-on envisager, particulièrement dans un usage B2B, au travers du « network slicing », des applications temps réel… ?
• Quel est le panorama de ces technologies aux différentes phases de la 5G ?
• Quelles transformations seront nécessaires pour les opérateurs, notamment en termes d’architecture et au niveau des cœurs de réseaux ?
• Où en est-on dans l’expérimentation de ces nouvelles architectures et des « démonstrateurs » des nouveaux services attendus ?
• Quels sont les enjeux et risques en termes de sécurité concernant tant les cœurs de réseau que l’introduction de traitements avancés en périphérie des réseaux ? Quelle sont les leviers pour les maîtriser ?
• Et, in fine, comment intégrer ces risques et opportunités dans la stratégie télécom des opérateurs, mais aussi des entreprises ?
Carole Bolopion, animatrice de la conférence, présente les intervenants auxquels le Groupe Réseaux et Services de Télécom Paris Alumni et Télécom Evolution ont fait appel pour approfondir ces points.
Place aux présentations
Jean-Benoît Besset, Directeur de la Stratégie Technique et IT au sein d’Orange France, rappelle les principales composantes de la 5G selon le fameux triangle :
• bien sûr, l’augmentation de débit : eMBB¹,
• mais aussi, une très faible latence et plus de fiabilité, pour permettre des applications critiques en quasi-temps réel : uRLLC¹,
• et la prise en compte d’un nombre croissant d’objets connectés (IoT) : mMTC¹.
Il souligne que la 5G présentée de cette façon est un concept de cible et que la normalisation, définie au sein du 3GPP, fonctionne par paliers, ou ‘’Releases’’, introduisant des mécanismes de base et des fonctions :
• « Release 15 », elle-même éclatée en trois sous-ensembles publiés entre début 2018 et mi-2019, spécifiant les fonctions de base,
• « Release 16 », espérée mi 2020, et « Release 17 », espérée mi-2021, spécifiant de façon plus complète les fonctions les plus avancées.
Au-delà des mécanismes permettant l’augmentation brute des débits, Jean-Benoît met l’accent sur les nouvelles fonctionnalités intelligentes, comme la virtualisation pour la gestion des réseaux, l’Edge Computing¹ pour permettre des traitements au plus près des besoins et le network slicing permettant des offres de réseaux à la demande pour les offres aux entreprises.
L’augmentation des débits est obtenue par une combinaison de mécanismes sophistiqués, utilisant les technologies dites « Massive MIMO¹ », avec des types d’antennes entièrement nouveaux, et d’une extension très importante de la capacité spectrale, grâce à l’utilisation de nouvelles fréquences plus élevées qui offrent des largeurs de bande utilisables en centaines de MHz au lieu des quelques dizaines de MHz mobilisables dans les bandes basses.
Cependant cette montée en fréquences va se traduire par des performances de propagation bien moindres que pour les générations précédentes et va imposer à terme une modification majeure de la topologie des réseaux avec une multiplication du nombre de points hauts. Ceci ne pourra être fait qu’en étalant les importants investissements nécessaires dans le temps (sachant qu’Orange France dispose déjà de 24 000 sites).
A court terme, pour les fréquences de la bande 3,5GHz, cet inconvénient de réduction de portée du fait de la montée en fréquence est peu ou prou compensé par l’utilisation de la technique Massive MIMO, qui permet d’améliorer considérablement la portée à puissance émise donnée. Les premiers déploiements de systèmes évolutifs 5G et d’antennes dans les nouvelles bandes se feront donc à topologie sensiblement constante, sans extension significative du nombre de sites.
Après des expérimentations menées depuis 2018, l’ouverture commerciale interviendra en 2020, en tenant compte de la disponibilité des équipements et des terminaux. Les déploiements en 5G menés par Orange France vont d’abord répondre, à partir de 2020, à des besoins capacitifs dans la continuité et en complément des offres 4G, avec une vitesse accrue de transfert de fichiers ou de vidéos, puis permettre, à partir de 2022, des offres de service « intelligentes » prévues par le standard, notamment pour les entreprises et autour d’îlots industriels.
Même si la demande reste pour le moment modérée, la prise en compte des Objets Connectés n’a pas attendu la définition de la 5G et les besoins sont déjà actuellement assurés par des solutions dérivées de la 4G (LTE-M1, NB-IOT¹) et par des réseaux dédiés comme LORA¹ ou Sigfox. La 5G prendra le relais à terme pour satisfaire à l’explosion attendue d’ici quelques années des besoins de connexions. La disponibilité tardive (à partir de 2022) des fonctions IOT n’est donc pas un problème de marché, en l’état actuel des anticipations.
Pour Viktor Arvidsson, Directeur Relations Gouvernementales, Innovation et Stratégie chez Ericsson France, le momentum 5G est là : les projets 5G se multiplient (Ericsson est déjà présent dans 40 réseaux) et les prévisions en termes de clients 5G et de débit associé transporté permettent d’anticiper que l’on atteindra les deux milliards d’utilisateurs 5G dès 2024.
Viktor fait ensuite le point sur les premiers déploiements en Corée, un des pays les plus avancés : depuis avril, des services 5G sont commercialement ouverts chez trois opérateurs, avec près de trois millions d’utilisateurs attirés par les nouveaux usages proposés (réalité augmentée, IA,…) et cela malgré une tarification 30 % plus élevée.
Une des innovations majeures de la 5G est l’introduction d’une capacité massive de collecte de données. Ceci entraîne la nécessité du développement d’une nouvelle couche réseau, l’Edge Computing, en vue de permettre de déconcentrer les traitements aujourd’hui centralisés dans les data centers du Cloud Computing, avec deux avantages clés :
• traiter les données au plus près de leur source, avec des durées de traitement optimisées, et mettant à profit les possibilités offertes par l’Intelligence Artificielle.
• éviter de saturer les cœurs de réseaux en ne faisant remonter vers le Cloud que les données prétraitées au niveau Edge. Cela est particulièrement important, compte tenu des prévisions de croissance exponentielles des données générées au niveau local, que ce soit dans le cadre des applications IoT ou pour les besoins industriels.
Viktor donne ensuite un exemple de ce que pourrait être, en Allemagne, le déploiement distribué d’une quinzaine de cellules centrées autour de data centers, Cet exemple est bâti sur l’atteinte d’objectifs de performances en termes de temps traitement/réaction système, par exemple pour une application de conduite automatique. Dans cet exemple, la structure envisagée pourrait permettre des gains importants dans les temps de traitement des données, les temps de propagation RTT¹étant alors limités à 5 à 6 ms entre les utilisateurs et leur data center le plus proche.
Un autre exemple concerne les offres de service permises par la technique du network slicing avec un cas d’application dans le domaine des transports ferroviaires, où le même réseau 5G pourrait offrir plusieurs couches, une pour les applications propres aux voies ferrées et aux trains (type GSMR¹), une pour les personnels (conducteur, contrôleurs) se trouvant à bord du train, enfin une troisième pour les usages privés des voyageurs. Selon le principe du network slicing, chaque couche serait gérée séparément en fonction de son propre objectif de qualité de service.
A cela se rajoute une évolution progressive des EPC (Enhanced Packet Core) des réseaux 4G vers les 5G Cloud Core permettant de gérer des réseaux 4G et 5G par un même cœur de réseaux, offrant ainsi une possibilité d’optimisation des coûts d’exploitation (OPEX) associés.
Christophe Le Roux, Intelligent Edge Sales Lead EMEA chez Microsoft, met en avant l’impact des applications IoT sur le volume des données collectées : ainsi un site industriel équipé pèse potentiellement de l’ordre de 1 Petabytes/jour…
Pour de tels volumes, les architectures Hyperscale Cloud, qui représentent en 2019 85 à 90% des traitements, deviendront impraticables en termes de concentration de ressources de traitement et d’encombrement des transmissions longue distance, avec des volumes importants de données sans utilité pour l’optimisation des processus.
Une évolution majeure en termes d’architecture devient indispensable : l’Edge Computing, appuyé sur des unités de traitement décentralisées sur les sites de collecte, voire dans des terminaux spécialisés. Christophe donne l’exemple d’une chaîne de distribution spécialisée avec 3000 points de vente, où la solution définie utiliserait 3000 ‘’boitiers’’ Edge.
Le développement très rapide anticipé pour ces nouvelles applications devrait faire basculer l’essentiel des traitements dans l’Edge qui pourrait représenter 75% des capacités de traitements à l’horizon 2025 contre 10% aujourd’hui. Par ailleurs, les possibilités offertes par l’Intelligence Artificielle vont permettre de déconcentrer les traitements avec efficacité, et les logiciels actuels devront être complètement réorganisés de façon à décentraliser des fonctions autonomes.
Christophe donne l’exemple du suivi des règles de sécurité dans une usine ou un aéroport où les informations issues de capteurs et de caméras seront traitées dans l’Edge à partir de règles d’apprentissage initialement définies en central.
Pour Christophe, les évolutions rendues possibles par la 5G s’inscrivent totalement dans celles que connaissent tous les grands acteurs du Cloud Computing. Cette complémentarité est notamment illustrée par le partenariat entre AT&T et Microsoft aux Etats-Unis.
Christophe termine son exposé en présentant des cas d’applications dans de nombreux secteurs industriels et économiques, mettant à profit la réduction du temps de latence permise par les traitements au niveau de l’Edge.
Philippe Vannier, Conseiller Spécial du Président d’Atos pour la Science, la Technologie et la Cybersécurité, revient sur l’explosion des données : les données doublent tous les deux ans, ce qui veut dire que, d’ici deux ans, autant de nouvelles données auront été générées que depuis l’origine de l’humanité ! Une telle évolution impose de déconcentrer les traitements au plus près des sources de données et des utilisateurs, car déplacer les données prend du temps et génère des besoins en énergie.
En tant qu’ancien Président de Bull, Philippe rappelle que les évolutions du monde de l’informatique ont connu des « coups de balancier » entre central et local : mainframes puis PC, Cloud computing puis maintenant Edge Computing. Et il rappelle aussi que le Cray 2 du CEA en 1981/82, le superordinateur le plus puissant de l’époque, avait une puissance de calcul 100 fois plus faible que celle d’un smartphone d’aujourd’hui !
Il souligne la complémentarité entre l’Edge Computing et l’Intelligence Artificielle, l’apprentissage pouvant être initialement fait en central, avant de déléguer les traitements à l’Edge. Il anticipe le déploiement de millions de systèmes Edge, d’une façon telle que, à terme, il n’y ait pas plus de 20 à 25 % des traitements qui soient effectués en central.
Il aborde ensuite les questions de sécurité, en particulier les risques de cybercriminalité.
Il considère que la réduction des temps de traitement rendue possible par la localisation de ces traitements à l’Edge via des connexions sécurisées contribuera à rendre les applications plus robustes vis-à-vis de ces risques.
D’un autre côté, il souligne la nécessité d’anticiper les évolutions de l’informatique vers les ordinateurs quantiques, qui devaient devenir une réalité d’ici entre cinq et 25 ans. De tels ordinateurs quantiques seront capables de casser tout code de protection des données connu aujourd’hui : il faut donc dès maintenant travailler à une nouvelle génération de codes de protection post-quantiques.
Thierry Borgel, Directeur SI et Digital d’Icade, commence par présenter les principaux résultats du Groupe de Travail « Influence de la 5G sur les architectures » qu’il a animé en 2019 au sein du CIGREF1 (qui regroupe les DSI des principales entreprises françaises).
Il en ressort que la 5G sera clairement un élément de compétitivité majeur pour les entreprises.
Les DSI doivent d’abord bien comprendre l’impact des nouvelles fonctionnalités permises par la 5G (notamment réduction des temps de latence, Edge Computing) sur leur propre architecture SI et, compte tenu de la nécessité d’anticiper ces évolutions, intégrer ces nouvelles possibilités dans leur roadmaps.
Dans un grand nombre d’entreprises, cela va imposer un renforcement des compétences sur ces questions, pour mener des expérimentations, puis aborder par exemple la question du « make or buy », élément clé de la stratégie réseau.
Le rapport du Groupe de Travail « 5G : anticipation et opportunités » sera très prochainement disponible sur le site du CIGREF. Et ces travaux vont se poursuivre en 2020 au sein de deux nouveaux GT : « Perspectives post-cloud et Edge Computing » et « Evolutions des Stratégies et Architectures ».
Ensuite, Thierry présente les enjeux de la 5G pour son entreprise, le Groupe Icade, qui est à la fois une foncière dans le domaine des bureaux et de la santé et un promoteur immobilier.
Il souligne d’abord le problème de la couverture et de la connectivité à l’intérieur des bâtiments, problème renforcé par les nouvelles normes HQE pour l’isolation thermique et par la montée en fréquences des réseaux mobiles, notamment la 5G.
Compte tenu des temps de construction, les nouveaux projets de bâtiments doivent, dès à présent, être conçus « 5G ready ». A ce sujet, il évoque le label R2S (« Ready 2 Services ») développé par la profession. Ces besoins sont désormais à prendre en compte dans l’équipement des bâtiments, de la même façon que pour l’eau, l’électricité ou le traitement des déchets.
Thierry présente un certain nombre de cas d’usages sur lesquels Icade travaille, s’appuyant par exemple sur les possibilités de la réalité augmentée in situ, les besoins de type IoT générés par des capteurs de plus en plus nombreux ou des possibilités de faible latence des réseaux 5G.
En conclusion, il souligne que ces questions « smart buildings » font de plus en plus l’objet d’un nouveau métier et que la profession se prépare à évoluer d’une approche « réseau bâtimentaire » à une approche « opérateur bâtimentaire ».
Enfin, Vincent Strubel, Sous-Directeur Expertise à l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) fait le point sur les enjeux de sécurité associés au déploiement de la 5G.
Vincent évoque d’abord les enjeux de sécurité dans un environnement pré-5G, enjeux principalement liés à la confidentialité et à l’authentification et bien pris en compte par les équipementiers. Ces domaines sont actuellement encadrés par l’ANSSI dans le cadre du contrôle R226.
La 5G fait apparaître des nouveaux types de risques liés à la déconcentration des fonctions réseaux (Edge Computing), à la virtualisation/ « softwarisation » et à l’apparition de nouveaux acteurs.
A ces risques endogènes, se rajoutent des risques exogènes avec des risques de cyberattaques (terroristes, militaires ou extorsions), un rôle croissant des états et une dépendance de plus en plus forte de nombreux secteurs économiques et de nouveaux usages aux nouveaux réseaux (dont les futurs réseaux 5G) de plus en plus interconnectés et servant de supply chains.
Au niveau français, ce véritable enjeu de sécurité nationale a été pris en compte dans un nouveau cadre légal avec la loi du 1er août 2019, s’appuyant sur un rôle renforcé de l’ANSSI.
Pour conclure, Vincent évoque des travaux constructifs de coopération sur ces sujets entrepris au niveau européen.
Table-ronde et débat
Carole Bolopion donne alors la parole à deux nouveaux intervenants qui se sont joint aux orateurs précédents pour la table-ronde :
Jean-Luc Beylat, Président des Nokia Bell Labs France, évoque l’implication de Nokia dans de nombreuses expérimentations, destinées notamment à imaginer les nouveaux services rendus possibles par la 5G. Par exemple dans les domaines des véhicules autonomes et des aides au handicap.
Le 7 octobre dernier, l’ARCEP a annoncé 11 plateformes d’expérimentations autour de la 5G et Jean-Luc rappelle celles dans lesquelles Nokia est partie prenante :
• le port du Havre en partenariat avec EDF et Siemens, sur le thème de l’optimisation énergétique,
• la gare de Rennes en partenariat avec la SNCF et Orange, pour tester des nouveaux services en relation avec le transport ferroviaire,
• le vélodrome de Saint-Quentin en Yvelines, vitrine technologique en vue des JO Paris 2024,
• le campus de Nokia à Nozay, pour le test de nouveaux services et applications,
• le quartier de la Défense, pour tester le fonctionnement en zones très denses,
• la Cité de la Science à la Villette, dans un souci de sensibilisation du grand public.
Guillaume de Lavallade, Directeur Général de HubOne, présente son entreprise, filiale d’Aéroports de Paris et spécialiste des réseaux professionnels. Son expertise initiale vient du monde des aéroports, mais aujourd’hui, ses clients sont, en très grande majorité, dans des domaines hors aéroports. Guillaume fait le constat que les réseaux privés sont plus avancés que les réseaux professionnels historiques (tels que Tetra), et prend pour cela l’exemple de l’accès à WhatsApp : il espère que la 5G donnera l’occasion de remédier à ce décalage. Il rappelle la complexité des environnements dans lesquels HubOne travaille : par exemple, il y a 120 000 salariés dans les aéroports parisiens, communicant entre eux, mais appartenant à de nombreuses entreprises différentes : ainsi lors de l’arrivée d’un avion au parking, de nombreux acteurs interviennent, pour les bagages, le nettoyage, l’entretien, … Il note que de tels cas d’application pourraient bénéficier du network slicing. A ce propos, Guillaume rappelle qu’il existe déjà la possibilité de faire du slicing en 4G au niveau fréquences et insiste sur la nécessité d’une possibilité d’évolution douce et de coexistence entre 4G et 5G.
Enfin, il rappelle que le succès de l’écosystème 5G dépendra de la disponibilité de terminaux : il rappelle sur ce point l’échec des réseaux Wimax !
Puis Carole donne la parole aux participants pour répondre aux questions.
Une première question porte sur la réglementation : la 5G risque-t-elle de remettre en cause le nombre d’opérateurs, actuellement 4 en France ?
Philippe Vannier et Jean-Luc Beylat répondent qu’il n’y a pas une réponse unique à cette question : au-delà de la dimension politique, la spécificité de la 5G peut conduire à envisager des opérateurs au niveau d’entreprises ou de secteurs verticaux de l’économie.
La seconde question porte sur le sujet largement médiatisé des risques d’espionnage mis en avant par le Gouvernement Américain pour blacklister les fournisseurs chinois, en particulier Huawei et ZTE.
Vincent Strubel répond qu’il ne faut pas être naïfs sur ces questions de risque d’ingérence des états, mais que le risque ne se limite pas aux industriels chinois et à l’Etat chinois…
Il faut être conscient que, sur ces questions, les précautions contractuelles ne suffisent pas.
Les Etats-Unis mettent en avant un risque réel sur la sécurité, mais l’exclusion n’est pas la solution.
Philippe Vannier évoque une table ronde organisée par l’ECSO (European Cyber Security Organisation), à laquelle Huawei a participé et où a été soulignée l’absence de réciprocité entre la Chine et les Pays Occidentaux.
Un participant s’inquiète de l’impact de l’explosion exponentielle des données sur l’empreinte carbone.
Viktor Arvidsson estime que le passage de la 4G à la 5G pourra être réalisé sans augmentation de la consommation énergétique, alors qu’il permettra de multiplier par 10 les données transmises.
Et sur la question des terres rares, il milite pour le recyclage.
Thierry Borgel rappelle que, dans le secteur du bâtiment, la consommation énergétique du domaine IT devient très importante et que cela doit être pris en compte dans les objectifs d’économie d’énergie.
Jean-Luc Beylat souligne que certes il y a une augmentation de la consommation énergétique associée aux nouveaux moyens IT, mais que ces nouveaux moyens IT contribuent aussi à optimiser la consommation en énergie de nombreux autres secteurs.
Jean-Benoît Besset indique que, pour les réseaux d’Orange France, il a été possible de stabiliser la consommation énergétique, malgré la forte croissance des données transmises (+ 180 % en 2018 par exemple) et la croissance du réseau Internet (+ 40 %/an).
A moyen terme, la fin du RTC (Réseau Téléphonique Commuté) et la migration vers la fibre sont des éléments favorables, par contre la multiplication des sites mobiles ne va clairement pas dans le bon sens…
Et Jean-Benoît conclut en rappelant que c’est une responsabilité collective : quelle est la consommation énergétique associée au visionnage et au stockage d’un film sur Netflix ?
Philippe Vannier reprend l’exemple des supercalculateurs pour lesquels l’augmentation considérable des puissances de traitement a pu se faire à consommation constante.
Une question porte sur la possibilité d’un fonctionnement du network slicing en multi-opérateurs.
Viktor Arvidsson répond que c’est théoriquement possible, mais que cela n’est pas prêt aujourd’hui. Cela pose en particulier des questions sur le contrôle de qualité de service de bout en bout.
Jean-Benoît Besset évoque les applications dans le domaine des véhicules autonomes, mais souligne qu’il faut aussi tenir compte de la dimension géographique.
Faire fonctionner des véhicules autonomes dans les zones urbaines bien connectées en 5G sera possible. Cela pourra sans doute aussi être envisagé sur les 50 000 km de routes principales. Par contre, cela paraît difficilement réaliste sur le million de km de petites routes en France !
Guillaume de Lavallade rajoute qu’il faut aussi prendre en compte les questions de connectivité à l’intérieur des bâtiments : quelle est la connectivité au 3e sous-sol d’une centrale nucléaire ?
Sur la question des réseaux privés dans les entreprises, Thierry Borgel estime que cela va se démocratiser avec la 5G, mais que cela va aussi beaucoup dépendre de la capacité des opérateurs en place à répondre aux besoins des entreprises.
Sur ce point, Jean-Benoît Besset rappelle les possibilités offertes par le Network Slicing, en faisant l’analogie avec les VPN largement utilisés sur Internet.
Conclusion
Carole conclut la conférence en remerciant les intervenants pour la qualité de leurs présentations et des échanges et en rappelant quelques idées fortes qui sont ressorties de cette conférence :
• au-delà de l'augmentation des débits et de la capacité, le déploiement de la 5G va se traduire par l’introduction de nombreuses nouvelles fonctionnalités « intelligentes », ce qui va permettre des nouvelles offres de service, notamment pour les entreprises,
• la croissance exponentielle des données à traiter avec le développement des applications IoT ne pourra être assurée qu’avec une déconcentration des fonctions de traitements des data centers du cloud computing vers une nouvelle couche de traitements proches des utilisateurs, l’Edge Computing.
• ces évolutions renforcent les risques au niveau sécurité, avec un rôle renforcé de l’ANSSI pour veiller à ce qui devient vraiment un enjeu de sécurité nationale.
Oui, nous allons vers des « réseaux plus intelligents » !
Lexique
• Network Slicing : architecture de réseaux virtuels permettant de partager une ressource entre plusieurs applications
• Multi Access Edge Computing/ Edge Computing : architecture permettant de réaliser les traitements au plus près des utilisateurs, pour réduire les temps de traitement et limiter les volumes de données remontant en central
• eMBB : Enhanced Mobile Broadband : couverture radio mobile plus performante
• uRLLC : Ultra Reliable Low Latency Communications : diminution de la latence des communications pour les applications sensibles
• mMTC : Massive Machine Type Communications : nombre important de communications entre machines simultanément
• Massive MIMO : Massive Multiple Input Multiple Output, technique utilisant de nombreuses antennes en parallèle, permettant des performances améliorées par utilisation de la dimension spatiale.
• LTE-M : est une technique de transport adaptée aux besoins de l’Internet des Objets, dérivée de la norme 4g
• NB-IOT (Narrow Band Internet of Things) : standard de transport pour l’Internet des Objets, développé par le 3GPP
• LoRa (ou LoRaWAN : Long Range Wide Area Network) : protocole adapté aux besoins de l’Internet des Objets, développé par la société Grenobloise Cycléo
• RTT (Round Trip Time) : temps de transport aller/retour et de traitement d’un signal ou d’une donnée
• GSM-R (Global System for Mobile Communications – Railways) : standard de communication sans fil basé sur le GSM développé pour les applications dans le domaine des chemins de fer
• CIGREF (originellement « Club informatique des grandes entreprises françaises ») : association regroupant les DSI des grandes entreprises et des administrations publiques françaises
Retrouver le parcours des intervenants sur telecom-paris-alumni.fr