La 5G… et au-delà : trois enjeux de standardisation pour les communications de demain

,
Une 5G standardisation, standardization

[dropcap]L[/dropcap]es générations de technologies mobiles se suivent à une cadence d’environ une tous les dix ans. Dix ans, c’est aussi à peu de choses près le temps qu’il faut pour les développer. À peine une génération est-elle proposée aux consommateurs finaux que les chercheurs travaillent alors déjà à la suivante. Il n’est donc pas surprenant de voir se dessiner dans les laboratoires, dès à présent, des technologies qui pourraient bien faire leur apparition dans le cadre d’une 5G+, voire d’une potentielle 6G. À moins bien sûr qu’elles ne parviennent à convaincre les organismes de normalisation — décisionnaires sur les technologies retenues — avant que leurs choix finaux ne soient rendus d’ici 2019.

À IMT Atlantique, les chercheurs travaillent sur ce type de nouvelles technologies de pointe pour la transmission et le codage du signal. Trois d’entre elles sont présentées ici. Elles font figure d’aperçu à la fois des enjeux techniques pour l’amélioration des télécommunications, et des enjeux de normalisation qui se tiennent en amont du déploiement commercial de la 5G.

 

Les turbocodes : flexibles jusqu’à un certain point

Inventés à IMT Atlantique (ex Télécom Bretagne) par Claude Berrou en 1991, les turbocodes sont un standard international en matière de codes correcteurs d’erreur. Ce sont notamment eux qui sont utilisés dans le cadre de la 4G. Leur avantage réside dans leur flexibilité. « Avec un même turbocode, nous pouvons coder n’importe quelle taille de message » souligne Catherine Douillard, chercheuse en communications numériques à IMT Atlantique. Comme tous les codes correcteurs d’erreur, plus la qualité de la transmission est bonne, plus ils corrigent d’erreurs. Cependant, ils connaissent un effet de seuil à partir duquel ils ne parviennent plus à améliorer leur correction malgré l’amélioration du signal.

« Nous avons récemment trouvé un moyen de résoudre ce problème, ce qui a donné lieu à un brevet avec Orange » assure Catherine Douillard. Les turbocodes pourraient donc bien continuer de faire office de codes correcteurs d’erreur inévitables dans les télécommunications. Seulement, les phases de normalisation pour la 5G ont déjà commencé. Elles se déclinent en trois phases, relatives aux trois types d’usage que la nouvelle génération devra remplir : augmentation des débits, communication ultra-fiable, et communications machine à machine. Pour le premier usage, d’autres codes correcteurs d’erreur ont été retenus : les LDPC, basés sur les travaux de Robert Gallager menés au MIT en 1960. La protection du canal de contrôle sera elle assuré par les codes polaires. Pour les autres usages, les comités de normalisation devraient se réunir courant 2018. Les turbocodes, les codes polaires et les LDPC seront à nouveau mis en concurrence.

Au-delà de cette bataille technologique pour la 5G, les trois familles de codes sont également scrutées pour des scénarios à plus long terme. Le projet européen H2020 Epic rassemble industriels et chercheurs — dont IMT Atlantique — autour d’une problématique : la montée en débit des codes correcteurs d’erreur. Turbocodes, LDPC et codes polaires sont ainsi scrutés, travaillés et mis à jour de façon conjointe. L’objectif est de les rendre compatibles avec le décodage de signaux circulant à des vitesses de l’ordre du térabit par seconde. Ils sont pour cela implémentés directement sur la partie matérielle des terminaux mobiles et des antennes (voir encadré en fin d’article).

 

FBMC : vers une nouvelle forme d’onde pour remplacer l’OFDM ?

Si la 5G veut rassembler les communications entre objets connectés, il lui faudra faire de la place sur les bandes de fréquence pour que les machines se parlent. « Il faut pouvoir faire des trous à des fréquences bien particulières dans le spectre existant pour insérer les communications de l’internet des objets » détaille Catherine Douillard. Mais la forme d’onde standardisée actuelle, appelée OFDM, ne permet pas cela. Son niveau d’interférence est trop élevé. De façon imagée, le trou dans la bande de fréquence ne serait pas « propre », et subirait les interférences des fréquences adjacentes. Une autre forme d’onde est donc étudiée : la FBMC. « Avec celle-ci, nous pouvons enlever une fréquence par-ci par-là pour insérer sans perturbation un système de communication » résume la chercheuse.

La FBMC permet également d’assurer une meilleure qualité de service lorsque les terminaux mobiles se déplacent rapidement dans une cellule. « Plus un mobile se déplace vite, plus l’effet Doppler est élevé » problématise Catherine Douillard. « Et l’OFDM est peu résistante à cet effet » constate-t-elle. Or la 5G veut assurer de bonnes communications à des vitesses de 400 kilomètres par heure — comme dans un TGV — sur les bandes de fréquence classiques de la 4G. L’avantage de la FBMC est encore plus important sur les fréquences millimétriques, puisque l’effet Doppler est d’autant plus important que les fréquences sont élevées.

Déjà utilisée pour la 4G, l’OFDM est pour le moment gardée par les organismes de standardisation de la 5G comme forme d’onde par défaut. Mais la FBMC n’a probablement pas dit son dernier mot. Plus complexe à mettre en place, les chercheurs travaillent à simplifier son implémentation. Là encore, les prochaines phases de standardisation pourraient être déterminantes.

 

NOMA : désaturer les bandes de fréquence historiques

Les bandes de fréquence utilisées actuellement pour les communications sont de plus en plus saturées. Certes, les fréquences millimétriques pourraient permettre de pallier ce problème, mais ce n’est pas la seule piste étudiée par les chercheurs. « Nous travaillons aussi à augmenter la capacité des systèmes pour transmettre plus d’information sur la même largeur de bande » explique Catherine Douillard. La technologie NOMA permet de mettre sur la même bande de fréquence plusieurs utilisateurs. Les interférences sont évitées en allouant à chacun une puissance différente — il faut alors parler de multiplexage en puissance.

« La technique marche bien lorsque nous associons sur la même fréquence deux utilisateurs avec une qualité de canal différente » rapporte la chercheuse. Concrètement, un utilisateur situé à proximité d’une antenne peut partager grâce à NOMA la même fréquence qu’un utilisateur loin de celle-ci. En revanche, deux utilisateurs ayant la même distance à l’antenne, et donc à peu de choses près la même qualité de réception, ne pourront pas la partager. Cette technique pourrait ainsi permettre de résoudre le problème de saturation des cellules que la 5G souhaite adresser.

Cet article fait partie de notre dossier 5G : la nouvelle génération mobile est déjà une réalité

[divider style= »normal » top= »20″ bottom= »20″]

Des algorithmes implémentés directement sur le matériel

Les algorithmes ne sont pas forcément des lignes de code logicielles. Ils peuvent également être implantés directement dans des circuits intégrés, sur la base de transistors qui agissent comme portes logiques. « L’avantage c’est que les algorithmes prennent beaucoup moins de place comme cela que lorsqu’ils doivent être exécutés sur des processeurs » pointe Michel Jezequel, responsable du département d’électronique à IMT Atlantique. « Les algorithmes sont également plus rapides et coûtent moins d’énergie » poursuit-il. Pour amener les turbocodes à des débits de l’ordre du térabit par seconde, il est inévitable de passer par une implémentation matérielle par exemple. Leurs homologues logiciels ne seraient pas assez rapides dans le traitement des données.

[divider style= »normal » top= »20″ bottom= »20″]

1 réponse

Trackbacks (rétroliens) & Pingbacks

  1. […] La 5G… et au-delà : trois enjeux de standardisation pour les communications de demain […]

Laisser un commentaire

Rejoindre la discussion?
N’hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *