5 commentaires

« Fog Computing » et cloud géo-réparti

Fog Computing = Cloud + Internet des Objets

Le « Fog Computing » (« Informatique dans le brouillard »)  génère un intérêt grandissant dans les domaines du cloud computing (« informatique dans le nuage », « infonuagique »). Plusieurs articles commentant la vision de Cisco, dont un du Wall Street Journal qui est souvent considéré comme l’une des sources initiales, ont donné lieu à de nombreux discussions et débats  en ligne. Des évènements scientifiques (par exemple FOG, ManFog) apparaissent également dans la communauté scientifique.

La vision originelle de Cisco a été révélée dans une conférence invitée lors d’un symposium international en 2011, puis développée ensuite dans plusieurs articles scientifiques émanant de la recherche de Cisco.

« Le ‘Fog Computing’ est une plate-forme hautement virtualisée qui fournit des services de traitement, de stockage et de réseau, entre les terminaux et les centres de données utilisés par le Cloud Computing traditionnel, localisés typiquement, mais non exclusivement, en bordure du réseau. »

La métaphore est construite sur l’image « du brouillard qui est un nuage proche de la terre ».

De nombreuses applications bénéficient du « cloud traditionnel » avec ses économies d’échelle dues à une agrégation massive d’équipements dans de grand centres de données. Ceci n’est pas le cas, néanmoins, pour de nombreuses autres applications – telles que celles qui requièrent des latences faibles et prédictibles, de la mobilité et de la localité, qui ont intrinsèquement une large distribution géographique, avec un accès sans fil prédominant et une connectivité variable.

Les applications de l’Internet des Objets (IoT en anglais) présentent ces caractéristiques. C’est la raison pour laquelle l’Internet des Objets est présenté par Cisco comme la principale motivation pour le « Fog Computing » d’un point de vue économique/industriel, avec des applications typiques dans les domaines des véhicules connectés, des réseaux électriques intelligents (« smart grid »), des réseaux sans fils de capteurs et « actuateurs ».cisco-fog2

L’architecture de référence proposée par Cisco (cf. figure ci-dessus) illustre le rôle prédominant de l’Internet des Objets dans le développement du « Fog Computing ». Le rôle de la couche « Fog » est de collecter les données issus des capteurs et terminaux, de traiter localement ces données, puis de renvoyer des commandes de contrôle aux actuateurs. La couche « Fog » peut également filtrer, agréger, puis « remonter » ces données « plus haut dans le réseau », possiblement jusqu’à un centre de données éloigné, à des fins de traitement par lots (« batch processing ») et analyse (« Big Data »).

“Le Fog peut soulager le réseau. Avec 50 milliards d’objets qui deviendront connectés dans le monde d’ici 2020, cela ne fera pas de sens de tout gérer dans le cloud. Les applications distribuées et les terminaux en bordure de réseau ont besoin de ressources distribuées. Le Fog rapproche les traitements des données. Les terminaux à faible énergie, à proximité de la bordure du réseau, peuvent délivrer une réponse en temps réel » explique Rodolfo Milito de Cisco.

Autres initiatives autour du cloud géo-réparti

NTT développe un concept d' »Informatique en bordure de réseau » (« Edge Computing« ) « qui peut réduire le temps de réponse des applications du cloud jusqu’à un facteur 100, comme démontré dans son premier résultat de recherche, le prototype d’accélération Web en bordure ». L’idée, très proche de celle de Cisco, est de localiser de petits centre de données à proximité des utilisateurs et des terminaux afin d’éviter d’envoyer tous les traitements à de grands centres de données distants. NTT cite des applications qui pourraient bénéficier le plus de cette vision : les bâtiments et villes intelligentes (« smart buildings/cities »), le « Machine-to-Machine », le domaine médical, les jeux vidéo en ligne, la reconnaissance de la voix ou la reconnaissance d’images.

AT&T Labs Research développe une vision du cloud réparti appelée Cloud 2.0 qui ressemble au Fog Computing: « Etant donné les capacités de traitement croissantes des terminaux, les chercheurs ont proposé une nouvelle architecture hybride qui vise à équilibrer traitements locaux et téléchargements à distance pour des solutions plus flexibles. Le Cloud 2.0 se base sur ce principe en étendant les capacités traditionnelles du cloud pour promouvoir les traitements locaux dès que possible ». L’idée centrale est de favoriser les capacités de stockage et de traitements locaux par un terminal ou une fédération de terminaux (e.g. une combinaison de téléphones et autres terminaux mobiles, « boxes », ordinateurs personnels) via une coopération entre terminaux, dans la lignée du « Device-to-Device (D2D) » dans lequel les terminaux personnels ne sont pas juste des équipement réseaux terminaux mais réellement des éléments du réseau avec des capacités de communication (routage) – tout en maintenant le stockage et les traitements dans des clouds traditionnels pour les applications qui ne peuvent pas se contenter uniquement de ressources locales, et/ou pour le stockage et les traitements qui sont intrinsèquement accédés par des terminaux et utilisateurs distants.

Intel travaille sur le « Cloud en bordure » (« Cloud Computing at the Edge ») qui vise la distribution du stockage et calcul dans le cloud au sein des éléments du réseau d’accès radio (« Radio Access Network », RAN). Des expérimentations sur le terrain se déroulent actuellement avec plusieurs sociétés. Saguna Networks, par exemple, optimise la livraison de contenus en poussant des caches de stockage dans la station de base, la cellule ou l’agrégateur.

IBM et Nokia Siemens Networks ont annoncé une collaboration pour construire une initiative similaire…

Ce que font les Orange Labs sur le sujet

Les principaux bénéfices attendus du Fog Computing sont de meilleures latences et Qualité d’Expérience pour les utilisateurs, moins de trafic dans les cœurs de réseaux. D’autres bénéfices attendus incluent une plus grande sécurité (localisation des données sensibles, plus grande surface d’attaque) et résilience (pas de points uniques de défaillance). Ces arguments sont attirants pour les opérateurs de télécommunications qui doivent faire face à une explosion du trafic et qui sont souvent blâmés par les utilisateurs en cas de piètre qualité d’expérience.

Une autre opportunité mise en avant par la recherche des Orange Labs est de construire un cloud réparti dans le réseau (« in-network distributed cloud »), i.e. de distribuer le cloud dans les points de présence de l’opérateur de manière à transformer le réseau – vu comme un continuum depuis de grands centre de données jusqu’aux terminaux/capteurs en passant par les points de présence réseau – en une plate-forme de cloud réparti (pour le stockage et le traitement) qui pourrait être monétisée auprès des fournisseurs de services Internet. Ceci pourrait réellement donner une position différenciante aux opérateurs de télécommunications dans le Cloud et l’Internet des Objets.

in-network-cloud2

La recherche d’Orange investigue ces sujets dans le cadre d’un partenariat avec l’INRIA et d’autres acteurs dans le contexte de l’initiative de recherche ouverte Discovery. Discovery vise à proto-typer une infrastructure d’informatique utilitaire basée sur la géo-localisation: « contrairement à la tendance actuelle qui vise à construire des centre de données de plus en plus grands dans quelques lieux stratégiques, le consortium Discovery propose d’utiliser n’importe quel point de présence réseau existant disponible sur Internet » (cf. Figure ci-dessus avec des mini/micro centre de données dans les futurs réseaux d’Orange).

Vos commentaires

    • 24/04/2015 – 11h37 | Pascal Esclade

      C’est un sujet très intéressant qui décrit sans l’annoncer que si le traitement est centralisé sur un Cloud (capacité unique virtuelle et flexible de traitement) le support physique de ce cloud n’est vraisemblablement pas un ou plusieurs Megadatacenter que ce soit pour les capacités de traitement ou le stockage.
      Pour imaginer l’avenir, il faut donc bien différencier l’architecture virtuelle (comme un drive virtuel en informatique) du support physique (un hard disk, une clé USB ou autre dispositif éloigné acceptant et/ou fournissant des données).
      A partir de cette notion et en évitant les bourdes type client/serveur qui ont jalonné le chemin entre l’informatique centralisée et décentralisée, on peut imaginer une cible où tous les éléments de computing ainsi que tous les éléments de stockage existants participerait à un cloud ou à un autre à partir du moment où ils seraient connectés. Les éléments supports de cette vision se basent sur les intervenants les plus intelligents de nos réseaux: les hackers qui avec les botnet ont déjà mis en route ce processus après que le P2P fasse des ravages dans le camouflage et la distribution de données. Quant aux capacités de traitement le cassage d’encryptage ainsi que nos plus hauts organismes scientifiques ont prouvé depuis longtemps qu’un réseau de computer est beaucoup plus puissant qu’un Cray II et remplace aisément une machine vectorielle. S’il en était besoin les techno du bitcoin montreraient en outre qu’il n’y pas d’autres alternatives dans l’avenir que de partager les ressources aussi bien pour des raisons de capacité que de sécurité voire de sauvegarde du savoir de l’humanité. L’appli de stockage encrypté sur des PC répartis existe déjà et la brique manquante serait plutôt un hyperviseur Android/Mozilla/Linux/…
      Last but not least pour des raisons d’énergie, d’optimisation des ressources en gros de l’écologie de base on ne voit pas pourquoi il faudrait des datacenters couteux à tout point de vue, régulièrement dépassés par la montée en charge des besoins alors que le développement viral des capacités interconnectées est inévitable.
      La probable destructuration de nos sociétés à court terme rend également nécessaire ces concepts pour des raisons de survie: un élément portable de computing/stockage doit pouvoir se connecter à n’importe quel réseau et sa capacité doit pouvoir s’étendre ou être utilisée par d’autres en temps réel.
      Je regarderai les caractéristiques de la nouvelle Livebox sur ces points pour savoir si nous chaussons enfin des bottes de 3 lieues (ne soyont pas trop ambitieux).

    • 8/07/2015 – 02h16 | kouki akram

      Svp j’aimerai plus de détaille sur ce sujet
      bien cordialement
      kouki akram

    • 10/07/2015 – 04h02 | Thierry Coupaye

      @Kouki Akram: vous pouvez consulter les articles mentionnés dans la rubrique ‘En savoir plus’.

    • 28/09/2015 – 06h19 | Lucile Spizzichino

      merci beaucoup. L’article est très intéressant et très clair pour les non-initiés.

    • 9/10/2015 – 10h33 | henri kamdem

      Très clair et en ligne avec des intuitions de non initiés, plein de bon sens, comme le résume la fin du commentaire de M. Esclade

Laissez-nous votre commentaire