IA device
20/11/2020

IA at the Edge


Auteur : Louise Rodriguez
Temps de lecture : 7 minutes
Quantmetry.com : IA at the Edge

À l’ère de Neuralink d’Elon Musk, l’intelligence artificielle embarquée n’est plus une fiction mais notre réalité. Le nombre d’objets connectés et leurs usages s’accroissent de manière exponentielle (smartphones, smart TV, montres connectées, enceintes connectées …). Nous devrions disposer de 50 milliards d’objets connectés d’ici 2025 contre « seulement » 15 milliards en 2015. De facto, cela implique une augmentation de la quantité de données échangées et du nombre de connexions dans le monde. Cela a des conséquences directes sur la capacité de nos infrastructures et outils centralisés actuels à gérer cette croissance, notamment en termes de trafic réseau et de qualité du service (QoS). Ce qui limite in fine les possibilités d’usage de l’IA embarquée, surtout lorsque les données traitées demandent une grande réactivité.  Pour répondre à ces problématiques, l’Edge AI semble être une solution.

Partie 1 – L’Edge AI : la convergence entre l’IA et l’Edge Computing

Aujourd’hui, 91% des données collectées sont traitées de manière centralisée au sein de Datacenters. C’est ce que l’on appelle le « Cloud Computing ».

Cependant, la volumétrie croissante de données génère des risques de saturation de la bande passante. Cela se traduit par une augmentation du temps de latence dans le traitement de la donnée, ce qui peut s’avérer problématique voire rédhibitoire pour certains usages, notamment dans les secteurs de la finance et de la santé.

L’Edge Computing : le point de départ de l’Edge IA 

Pour répondre à ces problématiques, une nouvelle technologie a fait surface : l’Edge Computing (ou informatique en périphérie). C’est une méthode qui vise à distribuer un ensemble de tâches de traitement de la donnée non pas directement dans le cloud, mais en périphérie du réseau et ce au plus près de la source (au sein des objets connectés eux-mêmes, d’ordinateurs ou de serveurs locaux). Cette décentralisation du traitement de la donnée permet ainsi de minimiser l’utilisation de la bande passante entre les objets connectés ou autres capteurs et le cloud, mais aussi de réduire la dépendance au réseau internet. Cette résilience la rend attractive pour des cas d’application nécessitant un temps de réactivité restreint ou encore, situés dans certaines zones géographiques éloignées.

Edge AI : quand Edge Computing et Intelligence Artificielle ne font plus qu’un…

Avec le développement de l’Edge Computing et face à la démocratisation de l’intelligence artificielle, la volonté d’intégrer des modèles au plus près des capteurs ou autres objets connectés est apparue évidente : c’est l’Edge intelligent ou encore Edge AI.

Dans ce schéma de fonctionnement, les données sont générées, prétraitées et compressées par les capteurs ou objets connectés. Elles sont ensuite transmises à l’Edge, ce qui va nous permettre de traiter, d’analyser, de transformer, d’effectuer des prédictions et de commander des actions localement, soit par les objets connectés eux-mêmes, soit par une machine locale (ordinateur ou serveur) et ce en temps réel. On peut ainsi gérer un ensemble de données exigeant un traitement avec un temps de latence réduit, en tout temps et en tout lieu.

L’ensemble des données est ensuite envoyé vers le cloud afin d’y être stocké, analysé et traité de manière plus globale. Mais c’est aussi au sein du Cloud que l’apprentissage et l’entraînement des modèles d’intelligence artificielle sont effectués. Une fois le modèle entraîné, il est exécuté sur de nouvelles données en périphérie au sein de l’Edge AI.

On peut ainsi souligner une réelle complémentarité et non une substitution de l’Edge IA avec le Cloud Computing avec d’une part, un traitement local pour les données nécessitant une grande réactivité et d’autre part, un apprentissage plus approfondi nécessitant une quantité de données et de ressources plus importante à distance dans le Cloud, qu’il soit privé ou public.

Figure 2 : Une articulation entre l’Edge AI et le Cloud

 

Partie 2 – Qu’est-ce que l’Edge Computing nous apporte concrètement ? :

L’Edge AI présente de nombreux avantages 

Comme vous l’avez surement compris, en limitant l’engorgement sur le trafic réseau, l’Edge AI permet une réduction importante des problèmes liés au temps de latence pouvant affecter les performances de l’ensemble des applications développées. Mais cette technologie dispose également de nombreux autres avantages. Elle est économique puisqu’elle limite la durée d’utilisation du Cloud et réduit les coûts de transmission de l’information.

Elle pallie également aux problèmes relatifs à la connexion à un Cloud, ce qui permet la mise en place et l’utilisation d’objets connectés sur des sites reculés (champs, campagne, montagne) tout en diminuant les risques en cas de coupure de réseau puisque potentiellement autonome. Cette technologie présente également des avantages en termes de sécurité puisqu’elle permet de réduire les flux de données continus, sensibles ou non, pouvant être potentiellement interceptés par des individus mal intentionnés.

Tous ces avantages rendent ainsi possible l’utilisation d’objets connectés en tout temps et en tout lieu, tant pour des applications à faible risque (la montre connectée) que pour des applications à haut risque comme des capteurs à des fins médicales ou encore, la voiture autonome.

Une technologie applicable à de nombreux cas d’usage…

De nombreux cas d’usage font aujourd’hui appel à l’Edge AI : la surveillance vidéo, la voiture autonome, les enceintes connectées ou encore d’autres IoT présents dans l’industrie.

Chez Quantmetry, des cas d’usage ont dû ou doivent également faire appel à l’Edge AI. En effet, une des missions consistait à développer un dispositif médical connecté. Ce dispositif avait pour intérêt de faciliter la chirurgie ambulatoire en assurant un suivi automatisé, continu et à distance du patient. L’Edge AI est d’autant plus nécessaire dans cette situation qu’elle nécessite un suivi sécurisé, permanent et ce peu importe la géolocalisation de la personne.

Autre cas d’usage : pour un grand groupe gestionnaire de réseau de transport de gaz, Quantmetry a su développer une application visant à détecter et alerter de l’usure des canalisations de gaz permettant ainsi une optimisation des frais de maintenance.

A travers ces cas d’usage, nous pouvons percevoir l’étendu des possibilités d’application et des challenges que nous réserve l’avenir !

Partie 3 – Mise en place et bonnes pratiques / Les principales considération lors du déploiement de l’Edge AI 

Afin de mettre en place cette nouvelle articulation, plusieurs éléments sont à prendre en compte et sont générateurs de nombreux défis. Parmi ces défis, connaître la complexité algorithmique, assurer la gestion et la sécurité de l’information sont des aspects déterminants pour la réussite de ce type de projet.

Vers des algorithmes plus simples et compréhensibles

La complexité algorithmique se définit selon le temps et la quantité de mémoire nécessaires à l’exécution d’un algorithme. Pendant de nombreuses années, la tendance a été d’agrandir les capacités de calcul via des Datacenters de plus en plus importants. De ce fait, des modèles de plus en plus complexes se sont développés, tels des modèles de Machine Learning ou de Deep Learning. Mais avec les objets connectés, une remise en perspective s’opère en demandant de pouvoir embarquer un ensemble de modèles dans des supports de plus en plus petits tout en assurant une grande réactivité. En effet, la plupart de ces objets sont loin d’avoir les mêmes capacités de calcul et de stockage que notre PC ou qu’un serveur.

C’est pour ces raisons qu’une attention particulière doit être portée à la complexité algorithmique en s’orientant, dans un premier temps, vers des algorithmes plus simples et compréhensibles. Mais la complexité ne se résume pas seulement aux différents types de complexité. L’architecture du code, le choix du langage de programmation et des logiciels utilisés sont des éléments vis-à-vis desquels nous devons être vigilants.

Modification de la stratégie ..

Un autre aspect très important concerne la stratégie globale de gestion des ressources en périphérie. Cela concerne donc à la fois la gestion des réseaux mais aussi des ressources informatiques réparties entre les divers centres de données et le cloud. Cette gestion se complexifie et ce d‘autant plus qu’elle doit en conséquence assurer une sécurité plus accrue. En effet, une décentralisation des tâches implique une démultiplication des cibles de cyber attaques ou autres accès par le biais de passerelles (gateway IoT). Cela exige que soit assurée une politique de contrôle des réseaux afin de sécuriser l’ensemble des données.

Vers une nouvelle approche organisationnelle ? 

Comme nous pouvons l’observer, pour réussir dans l’économie de l’Edge AI, il est nécessaire de disposer d’une bonne compréhension de l’architecture, de la direction de l’informatique, de l’intelligence artificielle, mais également une bonne maîtrise de l’IoT et de leur développement. Sa mise en place soulève donc la nécessité d’une nouvelle approche organisationnelle qui a pour particularité de regrouper un ensemble vaste et complémentaire de compétences qu’il s’agisse de Data Scientist, de Machine Learning Engineers, de Front End Developers, Network Ops, Dev Ops, IoT Developers et de Back End Developers. En travaillant ensemble, ils peuvent mener à bien ces défis d’aujourd’hui et de demain.

Notre conclusion

Pendant des décennies l’intelligence artificielle a résidé au sein de Datacenters disposant de capacités de calcul de plus en plus puissantes. Mais aujourd’hui, l’IA vise la périphérie de nos systèmes afin de se situer au plus près des objets connectés et de leurs utilisateurs. Quelques cas d’application rapide et ludique existent déjà : la Raspberry Pi 4 modèle B 8Gb permet dès à présent de s’initier à l’Edge AI associable au système open source Kubernetes, mais aussi Jetson Nano ou encore, AWS IOT at Edge. Mais une utilisation plus généralisée et poussée de cette technologie nécessitera une collaboration et un alignement concertés de plusieurs acteurs pour construire des écosystèmes de plus en plus interconnectés, tout en nous protégeant contre des failles de sécurité en cours de route.

Aller en haut