Edge computing


Gartner définit l‘edge computing comme « une partie d’une topologie informatique distribuée dans laquelle le traitement de l’information est situé à proximité de la périphérie – là où les objets et les personnes produisent ou consomment cette information ».

À son niveau de base, cette architecture informatique rapproche le calcul et le stockage des données des appareils où elles sont recueillies, plutôt que de s’appuyer sur un emplacement central qui peut se trouver à des milliers de kilomètres. Ainsi, les données, en particulier celles émises en temps réel, ne souffrent pas de problèmes de latence qui peuvent affecter les performances d’une application. En outre, les entreprises peuvent économiser de l’argent en effectuant le traitement localement, ce qui réduit la quantité de données devant être traitées dans un emplacement centralisé ou dans le nuage (cloud).

Un traitement local des données plus puissant

L’Edge Computing a été développé en raison de la croissance exponentielle des appareils IoT, qui se connectent à l’internet pour recevoir des informations du cloud ou renvoyer des données au cloud. Et de nombreux appareils IoT génèrent d’importantes quantités de données au cours de leurs opérations.
Pensez aux dispositifs qui surveillent les équipements de fabrication dans une usine, ou à une caméra vidéo connectée à Internet qui envoie des images en direct depuis un bureau distant par exemple. Si un seul appareil produisant des données peut les transmettre assez facilement sur un réseau, les problèmes surviennent lorsque le nombre d’appareils qui en transmettant en même temps augmente. Au lieu d’une caméra vidéo transmettant des images en direct, multipliez ce nombre par des centaines ou des milliers de dispositifs. Non seulement la qualité souffrira de la latence, mais les coûts en bande passante peuvent être énormes.

Le matériel et les services d’edge computing contribuent à résoudre ce problème en constituant une source locale de traitement et de stockage pour bon nombre de ces systèmes. Une passerelle de périphérie, par exemple, peut traiter les données provenant d’un dispositif de périphérie, puis renvoyer uniquement les données pertinentes via le nuage, réduisant ainsi les besoins en bande passante. Elle peut également renvoyer les données vers le périphérique en cas de besoin d’une application en temps réel.

Ces périphériques peuvent inclure de nombreux éléments différents, comme un capteur IoT, l’ordinateur portable d’un employé, son dernier smartphone, la caméra de sécurité ou même le four à micro-ondes connecté à Internet dans la salle de repos du bureau. Les passerelles de périphérie sont elles-mêmes considérées comme des dispositifs de périphérie dans une infrastructure informatique de périphérie.

Une solution d’avenir pour les entreprises ?

Pour de nombreuses entreprises, les économies de coûts peuvent à elles seules les inciter à déployer une architecture d’edge computing. Les entreprises qui ont adopté le cloud pour nombre de leurs applications ont peut-être découvert que les coûts de la bande passante étaient plus élevés que prévu.

De même, le principal avantage de ce type d’architecture est la capacité de traiter et de stocker les données plus rapidement. Ainsi, cela permet d’améliorer l’efficacité des applications en temps réel qui sont essentielles pour les entreprises. Avant l’edge computing, un smartphone qui scannait le visage d’une personne pour la reconnaissance faciale devait exécuter l’algorithme de reconnaissance faciale via un service en nuage, ce qui prenait beaucoup de temps à traiter. Désormais, avec un modèle d’edge computing, l’algorithme peut s’exécuter localement sur un serveur ou une passerelle périphérique, voire sur le smartphone lui-même, étant donné la puissance croissante de ces appareils. Les applications telles que la réalité virtuelle et augmentée, les voitures à conduite autonome, les villes intelligentes et même les systèmes d’automatisation des bâtiments nécessitent un traitement et une réponse rapides.

Aller en haut